- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Die Verfügbarkeit erhöhen


Welche drei zentralen Funktionen ein Netzwerk-Monitoring-System bieten muss
Kosten durch den Ausfall von Netzwerk-Ressourcen vermeiden

(19.01.15) - Der Ausfall des Netzwerks kommt ein Unternehmen teuer zu stehen. Das Marktforschungsunternehmens Gartner hat beispielsweise ermittelt, dass die Kosten eines Netzwerkausfalls umgerechnet bis zu 5.000 Euro betragen – pro Minute. Doch diese unnötigen Ausgaben können Unternehmen und Organisationen vermeiden, ist ManageEngine, eine Anbieterin von Echtzeit-Tools zur Überwachung von IT-Umgebungen, der Meinung. Die Voraussetzung ist, dass Netzwerkmanager ein Netzwerk-Monitoring-System (NMS) einsetzen. Mit ihm können IT-Fachleute proaktiv Netzwerkprobleme erkennen und beseitigen und dadurch einen reibungslosen Betrieb der Infrastruktur sicherstellen.

Damit das funktioniert, muss ein NMS folgende Funktionen bereitstellen:
>> Ein zentrales Dashboard, das einen Überblick über den Status des Netzes und der Netzwerksysteme gibt,
>> eine Funktion, mit der sich Routineaufgaben beim Beseitigen von Fehlern automatisieren lassen sowie
>> die Möglichkeit, eine Ursachenanalyse (Root Cause Analysis) durchzuführen. Damit kann die IT-Abteilung die Auslöser von Fehlfunktionen eingrenzen, etwa ein Server oder das Netzwerk für ein Problem verantwortlich sind.

1. Mit dem Dashboard alles im Blick
Ein zentrales Dashboard ist ein unverzichtbares Hilfsmittel für Netzwerkmanager. Es sollte in Echtzeit und in übersichtlicher Form Daten über den Status des Netzwerks bereitstellen. Hilfreich ist zudem eine grafische Darstellung der Daten, heruntergebrochen auf Regionen, die logische IT-Infrastruktur und die einzelne Racks. Tritt beispielsweise an einem Switch-Port eine hohe Auslastung der Bandbreite auf, erkennt der Administrator auf einen Blick die involvierten Systeme und Schnittstellen. Ein zeitaufwändiges "Anpingen" von Systemen durch die Eingabe von Befehlen auf der Kommandozeilen-Ebene ist nicht erforderlich. Ein Dashboard sollte die zehn Systeme mit der höchsten Bandbreitennutzung und Prozessor-Auslastung auflisten. Dadurch erkennt der Administrator, welche Netzwerksysteme und Server besonderer Aufmerksamkeit bedürfen und kann im Vorfeld potenzielle Probleme identifizieren.

2. Fehlerbeseitigung durch Automatisierung von Routineaufgaben beschleunigen
Bei der Suche nach den Ursachen von Netzwerkfehlern und bei deren Beseitigung fallen viele Routineaufgaben an. Diese lassen sich automatisch durchführen, vorausgesetzt, das Network-Monitoring-System verfügt über eine entsprechende Funktion. Ein Netzwerkfachmann kann dann Skripte ausführen lassen oder Workflows starten, wenn ein Fehler auftritt. Ein solches Skript prüft beispielsweise regelmäßig die Netzwerk- und VPN-Verbindungen (Virtual Private Network) und überwacht Parameter wie die CPU-Nutzung. Bei Problemen kann es den Administrator informieren, weniger wichtige Prozesse beenden oder sogar selbstständige Konfigurationseinstellungen von Routern ändern. Dadurch verringert sich die Zeit, bis das Netzwerk wieder läuft (Mean Time to Repair, MTTR). Eine solche Funktion für die Beseitigung von Fehlern kann maßgeblich dazu beitragen, die Support-Kosten zu reduzieren und die Zufriedenheit der Netzwerknutzer zu erhöhen.

3. Problembereiche mithilfe einer Root Cause Analysis (RCA) identifizieren
Ob ein Server oder das Netzwerk die Ursache von Problemen sind, lässt sich mithilfe einer Ursachenanalyse ermitteln. Denn oft wird das Netzwerk dafür verantwortlich gemacht, wenn eine Applikation träge reagiert oder nicht verfügbar ist. Dabei kann dies andere Ursachen haben: eine fehlerhafte Konfiguration, einen Backup-Lauf, der nicht in der Nacht, sondern während der Arbeitszeit startet, einen langsamen Datenbank-Server oder eine zu hohe Paketverlustrate. Eine RCA-Funktion bringt in solchen Fällen Klarheit. Sie wertet die Meldungen von Netzwerk- und Server-Monitoring-Komponenten aus und korreliert diese. Zudem kann der Administrator für Netzwerksysteme eine Aufstellung mit den Ursachen und Wirkungen gängiger Fehler definieren. Diese Maßnahmen tragen dazu bei, bei Auftreten eines Problems dessen Auslöser schnell zu erkennen und zu beseitigen.

David Howell European Director bei ManageEngine bei ManageEngine, fasst zusammen: "Für Administratoren ist es alles andere als einfach, unter der Vielzahl von NMS-Tools das passende auszuwählen. Dies umso mehr, als viele dieser Werkzeuge nur Standard-Features bieten. Einen echten Mehrwert bieten dagegen NMS-Lösungen, welche über die drei genannten Funktionen verfügen. Mit weniger sollten sich IT-Fachleute nicht zufrieden geben." (ManageEngine: ra)

Manage Enginie: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.