- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Umsetzung neuer Storage-Konzepte


Storage-Topologien für Big Data- und Datenbank-Umgebungen: Tipps rund um innovative Storage-Architekturen
Aktuell gewinnt im Storage-Umfeld vor allem der Einsatz von so genannten Multi-Purpose-Systemen an Bedeutung

(30.04.14) - Controlware unterstützt Unternehmen bei der Planung und Realisierung maßgeschneiderter Storage-Topologien für Big Data- und Datenbank-Umgebungen. Dabei führen innovative Datenhaltungskonzepte klassische HD-, SSD- und Tape-Technologien in individuell konfigurierten Architekturen zusammen – und garantieren auch bei anhaltendem Datenwachstum dauerhafte Zukunftssicherheit.

Das Datenwachstum in Data Center-Infrastrukturen nimmt seit Jahren kontinuierlich zu. Trends wie Big Data und die veränderte Kommunikation über Bilder und Videos erhöhen das Volumen zusätzlich – und setzen Unternehmen mit herkömmlichen Storage-Topologien massiv unter Druck. "Durch das Datenwachstum sind die technischen Anforderungen im Storage-Bereich rasant gestiegen. Die Speichermedien haben sich aber kaum verändert: Nach wie vor sind Hard Disks erste Wahl, und auch die lange totgesagten Tapes werden weiterhin genutzt", erklärt Angelika Stiehl, Business Development Manager Application Delivery bei Controlware. "Auch in den kommenden Jahren werden im Data Center keine revolutionären Entwicklungen wie holographische oder auf Nano-Technologien basierende Speichermedien die Schlüsselrolle übernehmen, sondern klassische HDs, Tapes und die zunehmend verbreiteten SSDs. Neue Speichertopologien und intelligente Software ermöglichen es diesen klassischen Speichertechnologien, mit der Datenexplosion Schritt zu halten."

Bei der Auswahl der Speichersysteme und -medien sollten Unternehmen folgende Tipps berücksichtigen:

• >> Performance:
SSD-Platten sind drehenden Festplatten in puncto Performance deutlich überlegen und werden preislich immer attraktiver. Müssen hohe Datenvolumen gleichzeitig bearbeitet werden, rechnet sich oft sogar die Implementierung eines nur mit SSDs bestückten Sub-Systems. Die gängigere Alternative ist aber nach wie vor der gemischte Betrieb, in dem intelligente Software Daten automatisch auf kleine, schnelle SSDs und große, langsame HDs verteilt. So lassen sich Applikationen beschleunigen, ohne dass ungenutzte Daten teuren Speicherplatz im Data Center verbrauchen.

• >> Verfügbarkeit der Systeme: Um bei einem Festplattenausfall den Verlust von Daten zu verhindern, nutzen Unternehmen typischerweise den bewährten RAID-Verbund, in dem es bei entsprechend großen Datenmengen allerdings mitunter ein bis zwei Tage dauert, Daten nach einem Ausfall wiederherzustellen. In dieser Zeit ist die Performance des Gesamtsystems stark eingeschränkt. Eine preislich zunehmend attraktive Alternative zu RAID-Systemen stellt das Dynamic Disk Pooling (DDP) dar, bei dem die Wiederherstellungszeit nur wenige Stunden beträgt.

• >> Verwaltbarkeit der Systeme: Ein bekanntes Problem im Storage-Bereich ist der in jeder Beziehung aufwendige Geräteaustausch. Die Migration großer File-Systeme kann mehrere Monate dauern, in denen die Performance eingeschränkt ist und zusätzliche Support-, Platz- und Energie-Ressourcen benötigt werden. Abhilfe versprechen so genannte Grid-Systeme, flexible Speichernetze, in denen sich Kapazitäts- und Performance-Erweiterungen durch sukzessives Hinzufügen zusätzlicher Knoten ("Grids") realisieren lassen. Teure Migrationen gehören damit der Vergangenheit an.

• >> Verfügbarkeit der Daten: Sämtliche bewährten Mechanismen zur Sicherung kritischer Daten – Snapshot, Spiegelung, Replikation und Backup – sind in der IT-Produktion nach wie vor unverzichtbar. Wo es die Aufbewahrungsfristen erlauben, wird das klassische Disk-to-Disk-to-Tape-Backup immer öfter durch Backups auf Disk-Systeme mit Deduplizierung ersetzt. Darüber hinaus ist es für manche Unternehmen schon heute wirtschaftlicher, das Backup zum Teil oder vollständig in die Cloud zu verlagern. Auf diese Weise lässt sich etwa der Verlust von Laptops oder Tablets einfach durch Backup und Restore aus der Cloud abfedern.

Aktuell gewinnt im Storage-Umfeld vor allem der Einsatz von so genannten Multi-Purpose-Systemen an Bedeutung. Hierbei bilden Unternehmen sämtliche Storage-Anforderungen – vom ERP-System über die Home-Laufwerke bis hin zur Datenhaltung für Web-Services – über ein einziges, intelligent automatisiertes Storage-System ab. Hardware-seitig lassen sich die verschiedensten Speichertechnologien bedarfsgerecht kombinieren, was den Anwendern ein hohes Maß an Flexibilität sichert. "Die Logik hinter solchen Multi-Purpose-Speichersystemen ist allerdings relativ komplex und sie können ihre Stärken nur dann ausspielen, wenn die Konfiguration passgenau stimmt", betont Angelika Stiehl. (Controlware: ra)

Controlware: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.