- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Flash-Speicher im Rechenzentrum


Flash-Speicher im Businessumfeld setzt Siegeszug fort: Zusammenspiel mit Copy-Data-Virtualisierung
Die rasante Entwicklung des Flash-Storage-Markts in den letzten zwei Jahren setzt sich in Kombination mit der Virtualisierung von Datenkopien fort



Der Siegeszug von Flash-Speicher im Rechenzentrum setzt sich fort, immer mehr Unternehmen steigen um auf die effiziente Speichertechnologie. Actifio, spezialisiert auf Copy-Data-Virtualisierung, hat dazu eine Partnerschaft mit dem "All-Flash"-Pionier Pure Storage bekannt gegeben. Hervorgegangen ist daraus die Testdatenmanagement-Lösung "AppFlash", die auf Flash-Speicher von Pure Storage und Actifio-Technologie basiert und DevOps-Szenarien unterstützt.

"Das Thema Flash wurde bei uns nicht von heute auf morgen aktuell. Bereits im Jahr 2014 gab es zunehmendes Interesse bei Unternehmen – und einige begannen mit einer allmählichen Umstellung. Dabei erwies sich die Kombination der Geschwindigkeit und Effizienz des Flash-Speichers mit den Möglichkeiten der Datenreduzierung als attraktiv", so Thorsten Eckert, Sales Director DACH bei Actifio. "Durch die erhebliche Reduzierung von Datenkopien wird eine große Anzahl an Festplatten überflüssig. Gleichzeitig ermöglichen die kleineren Kapazitätsanforderungen, Flash als alternative Speichertechnologie ins Auge zu fassen. Flash beansprucht weniger Fläche im Rechenzentrum bei gleichzeitiger Reduzierung des Energieverbrauchs für Betrieb und Kühlung. Angesichts der sinkenden Preise für Flash trat der betriebswirtschaftliche Vorteil von Flash immer deutlicher zutage."

Andere Nutzer betonen den Zeitvorteil als einen der größten Vorteile von Flash. Die Performance ist deutlich schneller, wobei die Latenzzeit auf wenige Millisekunden sinkt. Die Verarbeitungszeiten für einige Transaktionen verringern sich um bis zu 80 Prozent. Eine schnellere Abwicklung von Transaktionen bedeutete mehr Geschäft in weniger Zeit. Und da Flash einfacher zu verwalten ist, wurde auch der Betriebsaufwand reduziert.

Die Kosten für Flash waren bislang für viele Unternehmen eine Hürde – oder zumindest eine Herausforderung in der Kalkulation. Die Verringerung der Komplexität, die Erhöhung der Geschwindigkeit und die höhere Zuverlässigkeit sind jedoch nicht zu vernachlässigen.

"Einige Unternehmen verzeichnen ein durchschnittliches Datenwachstum von 50 bis 60 Prozent pro Jahr. Da diese Unternehmen aber mittels Copy-Data-Virtualisierung die vormals unkontrollierte Vermehrung von Datenkopien in den Griff bekommen haben, ist heute die tatsächliche Zunahme an Speicherbedarf gering. Je nachdem, welcher Datenanteil bereits als virtuelle Datenbasis intelligent verwaltet wird, kann der Speicherbedarf sogar sinken – trotz Datenwachstum", so Thorsten Eckert. "Dabei spielt Copy Data Virtualization einen weiteren Vorteil aus, indem sie eine reibungslose Datenmigration ermöglicht. Der Umzug von den alten Festplatten-basierten, herkömmlich verwalteten Plattformen auf die zeitgemäße Kombination aus Flash und Datenvirtualisierung geht einfach und schnell vonstatten."

Die Preise für Flash sind in diesem Jahr weiter gesunken. Bis Jahresende sollen die Kosten für SSD und HDD nahezu auf gleichem Niveau sein. Als weitere Hürde erwies sich bislang aber die Form, in welcher Flash-Speicher verfügbar war. Viele etablierte Speicheranbieter taten ihr Möglichstes, um langjährige Kunden zu binden – mit Hybrid-Arrays. Dabei kommen SSDs in einer Architektur zum Einsatz, die eigentlich für HDDs konzipiert wurde. 2014 waren zudem die Auswahlmöglichkeiten bei All-Flash-Arrays begrenzt. Diejenigen, die verfügbar waren, hatten nur wenige typische Datenmanagement-Funktionen, die man von einem Enterprise-Array erwartet, wie etwa Thin Provisioning, Snapshots oder Verschlüsselung. Die heute erhältlichen All-Flash-Arrays verfügen aber nun über den erforderlichen Funktionsumfang.

Gartner kam bereits zu dem Schluss, dass Solid-State-Speicher zum Mainstream wird. In seiner März-Analyse mit dem Titel "Moving Toward the All Solid-State Storage Data Center” empfiehlt das Analystenhaus die Implementierung von Solid-State-Arrays im gesamten Unternehmen, um Management- und Betriebskosten zu reduzieren und gleichzeitig neue Dienste zu erschließen, die diese erheblichen Leistungsverbesserungen nutzen. SSDs mit höherer Kapazität in dichteren Speichersystemen werden es Gartner zufolge ermöglichen, das digitale Geschäft besser zu unterstützen, indem neue Anwendungen realisiert werden können.

"Höhere Geschwindigkeit, reduzierte Kosten und zuverlässige Verfügbarkeit auf globaler Ebene sind die Anforderungen großer Unternehmen an die Speicherumgebung. Akquisitionen erfordern zudem die Aufnahme neuer heterogener Betriebsumgebungen in die unternehmensweite IT-Landschaft. Dabei sollen zuverlässige Disaster-Recovery- und Business-Continuity-Funktionen zur Verfügung stehen. Hier ist Plattformunabhängigkeit gefragt", fasst Thorsten Eckert abschließend zusammen. "Copy-Data-Virtualisierung unterstützt einen solchen heterogenen Betrieb und befreit die Unternehmen in Sachen Speicherumgebung von der Abhängigkeit von einem bestimmten Anbieter. So können sukzessive neuen Architekturen für All-Flash-Plattformen aufgebaut werden. Unternehmen haben auch die Flexibilität, eine hybride Cloud einzurichten, die für ihr neues Geschäftsmodell optimiert ist und sich dynamisch verändern kann, wenn es erforderlich ist." (Actifio: ra)

eingetragen: 09.02.17
Home & Newsletterlauf: 02.03.17


Actifio: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.