Rechenzentrumsausfälle durch Attacken


Rechenzentrumsinfrastruktur 2017: Trendprognose
Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus - Wer sich in der IT diesen Entwicklungen verweigert wird untergehen



Vertiv, früher Emerson Network Power, stellt sechs Trends vor, die 2017 für die Infrastruktur von Rechenzentren wichtig werden. Diese Trends schließen sich an die Rechenzentrumsinnovationen 2016 an, die im letzten Jahr von Emerson Network Power veröffentlicht wurden. "Weltweite Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus. Wer sich in der IT diesen Entwicklungen verweigert wird untergehen", so Reinhard Purzer, Vice President & Managing Director Deutschland, Österreich & Schweiz (DACH) von Vertiv. "Aber um hier mithalten zu können, braucht man leistungsfähige Infrastrukturen Systeme, die agil und skalierbar sind. Wir glauben, dass nach einem Boom im Applikationsbereich das Augenmerk 2017 stärker auf der Zukunftsfähigkeit der Rechenzentren liegen muss: nur wer es versteht, die Möglichkeiten richtig zu kombinieren, ressourcensparend einzusetzen und dennoch vollkommen flexibel zu bleiben, kann wirtschaftlich arbeiten."

Die folgenden sechs Infrastrukturtrends werden das Ökosystem Rechenzentrum 2017 prägen:

1. Die Infrastruktur wird mit der Konnektivität am Netzwerkrand Schritt halten müssen
Verteilte IT und das industrielle Internet der Dinge (IIoT) bringen die IT-Ressourcen näher zu den Benutzern und industriellen Prozessen. Dabei bleibt das Rechenzentrum das Herzstück bei der Bereitstellung von Anwendungen und Dienstleistungen, wie beispielsweise am Point of Sale oder bei der Bestandsverwaltung. Doch je mehr Daten durch Sensoren und Geräte entstehen und je mehr Anwender aus der Ferne einen schnellen Zugriff auf diese Daten benötigen, desto mehr Netzwerkschränke und Mikro-Rechenzentren werden eingesetzt. Deswegen nimmt deren Bedeutung zu. Um auf diese Veränderungen zu reagieren, werden sich Unternehmen mehr für vorkonfigurierte Mikro-Rechenzentrumslösungen interessieren, die eine schnelle Bereitstellung, ein höheres Maß an Standardisierung und die Fernverwaltung über verteilte IT-Standorte hinweg unterstützen. Standardisierung und Modularität werden damit für verteilte IT-Standorte genauso wichtig, wie sie es bereits jetzt für große Rechenzentren sind.

Vorhandene Netzwerkschränke und entfernte IT-Standorte werden auch neu bewertet werden. Denn es muss sichergestellt werden, dass die Stromversorgungs- und Kühlsysteme ausreichen, um der zunehmenden Bedeutung dieser Standorte gerecht zu werden. Nicht zuletzt, weil diese zunehmend für die lokale Sammlung und Analyse der von den vernetzten Sensoren und Geräten stammenden Echtzeitdaten verantwortlich sein werden.

2. Thermal Management ist zunehmend von Nachhaltigkeit geprägt
Wohl kaum ein anderes System im Rechenzentrum hat sich in den vergangenen fünf Jahren so verändert wie die Kühlung. Ausschlaggebend dafür war der Wunsch nach Senkung der Energiekosten. So wurden traditionelle Ansätze, die auf "maximale Kühlung" abzielten, durch intelligentere Ansätze ersetzt, bei denen es um eine möglichst effiziente Wärmeableitung geht. Die zunehmende Verwendung moderner Economizer-Technologien und die Weiterentwicklung intelligenter Lösungen zur Klimaregelung ermöglichen hochflexible Thermal-Management-Strategien, mit denen sich PUE-Werte unter 1,2 erzielen lassen.

Neben der Energieeffizienz, die weiter ein wichtiger Faktor bleibt, spielen in einigen geografischen Regionen auch Faktoren wie der Wasserverbrauch und der Kühlmitteleinsatz eine wachsende Rolle. Dank der erweiterten Vielfalt an heute verfügbaren Thermal-Management-Strategien können sich die Betreiber von Rechenzentren ein maßgeschneidertes Thermal Management für ihren Standort und ihre verfügbaren Ressourcen zusammenstellen. Globale Markttrends zeigen eine zunehmende Nutzung von neuen Technologien wie dem Einsatz von Verdunstungs- und adabiatischer Kühlung, bei denen Wasser zur Kühlung der Umgebungsluft verwendet wird. Diese Technologien bieten ein hocheffizientes, zuverlässiges und sparsames Thermal Management.

Wo die Verfügbarkeit oder der Preis von Wasser jedoch problematisch sind, gewinnen Kühlsysteme ohne Wasser an Bedeutung. Ein traditionelles Kaltwassersystem mit offenem Kreislauf benötigt zur Kühlung von 1 MW an IT-Kapazität pro Jahr mehr als 15 Millionen Liter Wasser. Dank neuartiger Economiser-Systeme mit Kältemittelpumpe, die kein Wasser benötigen und dem Rechenzentrum keine Außenluft zuführen, konnten in Nordamerika 2016 fast vier Milliarden Liter Wasser eingespart werden.

3. Sicherheitsverantwortung verlagert sich zunehmend in das Rechenzentrumsmanagement
Während es in den Schlagzeilen vor allem um Datendiebstahl geht, ist die IT-Sicherheit längst auch zu einem Verfügbarkeitsproblem von Rechenzentren geworden. Die Studie des Ponemon Institute zu den Kosten von Rechenzentrumsausfällen für 2016 kam zu dem Ergebnis, dass Cyber-Angriffe für 22 Prozent der untersuchten Rechenzentrumsausfälle verantwortlich waren.

Je mehr Geräte vernetzt sind, um die Verwaltung zu vereinfachen und letztlich die Automatisierung zu ermöglichen, desto mehr Angriffsziele gibt es. Rechenzentrumsexperten ordnen daher die Sicherheit auf ihrer Prioritätenliste ganz oben ein und suchen zunehmend nach Lösungen, um Schwachstellen zu erkennen und die Abwehr von Angriffen zu verbessern. Management-Gateways, die Daten von zahlreichen Geräten für die Unterstützung von DCIM konsolidieren, können hier eine Lösung sein. Mit einigen Änderungen erkennen sie ungesicherte Ports in der gesamten kritischen Infrastruktur und warnen rechtzeitig vor Denial-of-Service-Angriffen.

4. DCIM bewährt sich
DCIM wird seinen Wert weiter unter Beweis stellen. Das gilt sowohl für Probleme, die sich schon jetzt damit lösen lassen, als auch für seine Fähigkeit zur erfolgreichen Verwaltung des immer komplexeren Ökosystems Rechenzentrum. Zukunftsorientierte Betreiber meistern mit DCIM ihre Herausforderungen im Rechenzentrum. Dazu zählen die Einhaltung behördlicher Vorschriften, die Information Technology Infrastructure Library (ITIL) und die Verwaltung hybrider Umgebungen. Letztlich sehen auch Colocation-Anbieter in DCIM ein wertvolles Tool. Sie analysieren damit ihre Kosten pro Kunde und können ihren Kunden remote Einblicke in deren Ressourcen gewähren.

DCIM hat sich zur Vorstufe des IIoT im Rechenzentrum entwickelt. Denn es gibt die gewünschten Einblicke, ermöglicht eine erweiterte systemübergreifende Koordination und unterstützt die Automatisierung und damit den Kern der Wertschöpfung des IIoT.

5. Alternativen zur Blei-Säure-Batterie werden verfügbar
Neue Lösungen für das schwächste Kettenglied bei den Stromversorgungssystemen von Rechenzentren zeichnen sich ab. Denn die Betreiber wollen den Platzbedarf, das Gewicht und die Gesamtkosten von herkömmlichen ventilgeregelten Blei-Säure-Batterien (VRLA) senken. Dabei sind Lithium-Ionen-Batterien die vielversprechendste Lösung. Die Preise der Lithium-Ionen-Batterien sinken, und ihre Chemie und Konstruktionsweise werden ständig weiterentwickelt. Sie lassen sich auf die Anforderungen auf Reihen- und Raumebene skalieren und werden damit zu einer sinnvollen Option für das Rechenzentrum. Obwohl diese Technologie für Batterien bereits zuvor verfügbar war, sorgt die verbesserte Wirtschaftlichkeit für erhöhte Vermarktungsbemühungen in der Rechenzentrumsbranche.

Die Betreiber von Rechenzentren sind schon seit langem an Alternativen für Blei-Säure-Batterien interessiert, doch die bisher verfügbaren Technologien konnten mit dem Wert und der Speicherkapazität herkömmlicher Batterien nicht mithalten. Jetzt zeichnen sich echte Alternativen ab, mit denen der Platzbedarf gesenkt, die Laufzeiten verlängert und die Nachhaltigkeit verbessert werden kann.

6. Noch stärkere Integration von Rechenzentrumsdesign und -bereitstellung
In den vergangenen Jahren hat die Technologie-Integration in Rechenzentren stark zugenommen. Betreiber verlangen modulare, integrierte Lösungen, die schnell bereitgestellt, leicht skaliert und effizient betrieben werden können. Jetzt gilt diese Philosophie auch bei der Entwicklung von Rechenzentren. Die schnelle Markteinführung ist einer der wesentlichen Treiber für die Firmen, die heute den Großteil der Rechenzentrumskapazität entwickeln. Sie haben erkannt, dass die traditionell abgeschotteten Strukturen zwischen der Entwicklungs- und Konstruktionsphase hinderlich und unproduktiv sind. Daher verfolgen sie inzwischen bei Design und Bereitstellung von Rechenzentren schlüsselfertige Konzepte. Diese umfassen integrierte, modulare Designs, die die Konstruktion unabhängig vom vorgesehenen Standort machen, und ein diszipliniertes Projektmanagement. Anbieter, die Infrastruktur-Know-how, Design- und Engineering-Fähigkeiten und leistungsfähiges Projektmanagement zur Lieferung von schlüsselfertigen Lösungen kombinieren, können schneller bessere Rechenzentren bauen.

"Eine starke IT-Infrastruktur ist und bleibt Mittelpunkt des Erfolgs für Unternehmen, die dynamisch zwischen on-Premise und Cloud-basierten Technologien wechseln wollen.", erklärt Reinhard Purzer. "Zwei Trends werden das nächste Jahr prägen: der Umgang mit den immer größeren Datenmengen, die gespeichert, verarbeitet und ausgewertet werden müssen und die Sorge um die Sicherheit eben dieser Daten. Diesen Anforderungen gerecht zu werden, ist alleine kaum möglich. Hier braucht man einen Partner, der bei Rechenzentren jederzeit Hilfestellung leisten kann sei es bei Skalierbarkeit und effizienten Betrieb, sei es bei der Absicherung gegen die immer raffinierteren Angriffe. Eine langjährige Erfolgsgeschichte im Bereich des Rechenzentrumsbetriebs ist dabei Gold wert."
(Vertiv: ra)

eingetragen: 22.01.17
Home & Newsletterlauf: 07.02.17


Vertiv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.



Meldungen: Hintergrund

Verschlechterung der Sicherheitslage

Verschieden große Budgets für die Abwehr je Firma tragen erheblich zur Verschlechterung der Sicherheitslage bei. Es besteht eine große Kluft zwischen Unternehmen, die über die Finanzkraft verfügen, um fortschrittliche Sicherheitslösungen zu implementieren, und solchen, die sich dies nicht leisten können.

Nachfrage nach HDDs mit höheren Kapazitäten

Festplatten speichern Daten zuverlässig und basieren auf bewährter Technologie. Dank hoher Kapazitäten bei niedrigen Kosten pro Kapazitätseinheit sind sie eine ausgezeichnete Grundlage für die Datenspeicherung in verschiedenen Branchen und Anwendungen, etwa in Rechenzentren, in der Videoüberwachung, im Gaming und im Cloud Computing.

Bedrohliche Möglichkeiten für Cyber-Kriminelle

Cyber-Angriffe gehören fast schon zum Business-Alltag. 58 Prozent der deutschen Unternehmen waren im letzten Jahr betroffen, so eine aktuelle Umfrage. Neue Technologien von Quantencomputern bis zu künstlicher Intelligenz könnten die Ausmaße und Auswirkungen von Cyber-Kriminalität allerdings noch weiter steigern.

KI ein zunehmendes Risiko für die Cyber-Resilienz

2024 wird Cyberresilienz als Basis für die Kontinuität von Geschäftsprozessen zunehmend im Fokus stehen und die IT-Organisation und Führungsebene umgestalten. Denn um diese strategische Aufgabe zu stemmen, werden sich die Chief Information Security Officer (CISO) intensiver an Datensicherheit und Datensicherung beteiligen. Gleichzeitig wird das C-Level die Verantwortlichen für IT-Datensicherheit und IT-Betrieb stärker in seine Hierarchie einbeziehen.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.