Data Warehouse erfolgreich automatisieren


V für Value: das fünfte 'V' der Datenspeicherung
Wie Automatisierung des Data Warehouse den Wert der Unternehmensdaten erhöhen kann



Von Neil Barton, CTO bei WhereScape

Volume, Velocity, Variety, Veracity. Im englischen IT-Sprachgebrauch haben sich die vier Vs der Datenspeicherung längst etabliert. Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit gilt es in Einklang zu bringen, um die Daten eines Unternehmens erfolgreich verwalten zu können. Herkömmliche Data Warehouse-Infrastrukturen sind häufig nicht mehr in der Lage, die enormen Datenmengen, die Vielfalt der Datentypen, die Geschwindigkeit mit der Daten entstehen, ausgewertet und weiterverarbeitet werden sowie die Fehlerfreiheit von Daten zu managen. In Zeiten, in denen Daten für Unternehmen immer wertvoller werden, hat sich mittlerweile ein fünftes "V" zum bestehenden Quartett dazugesellt: V für Value beschreibt den Wert der Daten für das Unternehmen.

Selbst nur die vier Vs der Datenspeicher in Unternehmen in Einklang zu bringen war für viele IT-Teams schon immer sehr schwierig, wenn nicht gar unmöglich. Flash ist beispielsweise zwar schnell (Velocity), kann aber kaum bei großem Volumen helfen. Und für verschiedene Datentypen, wie etwa Datei-, Block- oder Objektdaten (Variety) unterschiedliche Speicher anzuschaffen, sprengt schnell jedes Budget.

Das fünfte V (Value) stellt die IT jedes Unternehmen nun vor die zusätzliche Herausforderung die Daten nicht nur so effektiv wie möglich speichern zu müssen, sondern auch noch den Wert der Daten für das Unternehmen optimal nutzbar zu machen. Für CDOs ist dies bereits jetzt eine der wichtigsten und zeitaufwändigsten Aufgaben geworden. Die Facette den Wert von Daten für ein Unternehmen zu erhöhen, und damit zu monetarisieren, wird somit immer wichtiger und IT-Abteilungen suchen aktiv nach Methoden, die dabei helfen aus Daten Wert zu schaffen.

Data Warehouse ist die zentrale Schaltstelle für Informationen im Unternehmen
Unabhängig von den genutzten Speichertechnologien und -orten ist das Data Warehouse der zentrale Punkt, an dem alle Unternehmensdaten zusammenkommen. Im Data Warehouse werden aus einem Berg von Rohdaten im besten Fall wertvolle Informationen, die anschließend vorteilhaft genutzt werden können. Daten helfen wichtige Entscheidungen zu treffen, und entsprechend sind die Erwartungen der Benutzer, was den potentiellen Mehrwert von Daten anbetrifft, in den letzten Jahren enorm gestiegen.

In vielen Unternehmen führt dies bei den Benutzern jedoch zu Enttäuschung, da viele Data Warehouses die Anforderungen aktuelle, nutzbare Daten zeitnah bereitzustellen oft nicht bieten können. Benutzer wollen Erkenntnisse aus den Daten heute in Echtzeit, was viele Data Warehouses nicht leisten können. Gleichzeitig wächst die Menge neu generierter Daten stetig: Social-Media-Daten, Sensor-Daten, IoT-Daten, Kundenkommunikation und hochauflösende Videodaten bringen nicht nur die Speichertechnologien an ihre Grenzen, sondern auch das Data Warehouse und die für die Systeme zuständigen IT-Teams.

Diese Teams waren es bisher gewohnt, das Data Warehouse in lange andauernden Projektzyklen weiterzuentwickeln. Das Data Warehouse ist seit jeher ein komplexes System, das man nicht mal so im Vorübergehen umbauen kann. Als ein Kernelement der Digitalen Transformation sind Unternehmen jedoch gezwungen ihre Data Warehouses schneller zu modernisieren, um moderne Anforderungen zu erfüllen. Aufwändige Projektzyklen widersprechen einer schnellen und kontinuierlichen Transformation.

Automatisierung des Data Warehouse hilft Time to Value zu verkürzen
In vielen Unternehmen stellt sich an diesem Punkt die Frage, wer denn für die Modernisierung des Data Warehouse, und damit direkt auch für die Schaffung von Mehrwert aus Daten, zuständig sein soll. In den meisten Unternehmen liegt die Zuständigkeit hierfür in der meist noch frisch geschaffenen Stelle des CDO, also des Chief Digital Officer. Und eine der zentralen Aufgaben eines CDOs, ist es, die Zeitspanne zu verkürzen, bis Daten für Unternehmen einen greifbaren Wert darstellen. "Time to Value" heißt die Forderung. Und das zu erreichen, kommt kein CDO um eine Prozessautomatisierung herum. Automatisierung bringt in vielen Bereichen der IT Vorteile.

Das gilt natürlich auch im Data Warehouse, wo entsprechende Softwarelösungen das Fundament automatisierter Prozesse bilden. Die Data Warehouse-Automation ist jedoch mehr als eine bloße Softwarelösung. Sie ist eine Philosophie, die das Unternehmen in seine Kultur durchaus einbinden muss um sie erfolgreich zu meistern. Mindestens genauso wichtig sind darüber hinaus ein starke Führung und transparente Prozesse.

Vier praktische Schritte für CDOs das Data Warehouse erfolgreich zu automatisieren

1. Wissen, was tatsächlich benötigt wird
Bevor CDOs Entscheidungen über die Zukunft der Data Warehouse-Infrastruktur treffen, sollten sie sich im Klaren sein, was genau die spezifischen Herausforderungen sind. Insbesondere sollte man im Detail wissen, wozu die Benutzer die Daten benötigen um Entscheidungen zu treffen.

2. Verstehen, was man bereits hat
Die meisten Unternehmen verfügen bereits über ausgefeilte Datenmanagement-Tools, die als Teil ihrer Infrastruktur eingesetzt werden. Unternehmen, die bereits SQL Server, Oracle oder Teradata einsetzen, verfügen beispielsweise bereits über eine Reihe von Tools für das Datenmanagement und die Datenbewegung, die im Rahmen eines Projekts zur Data Warehouse-Automation effektiv genutzt werden können. Bei diesem Inventurprozess sollten die CDOs sicherstellen, dass sie aktuellen und zukünftigen Kapazitätsanforderungen ihres Data Warehouse berücksichtigt haben.

3. Priorisieren, was zuerst automatisiert werden sollte
Die Automatisierung eines Data Warehouse erfordert Ressourcen - und diese sind aufgrund strenger Budgets und konkurrierender Prioritäten oft knapp. Das bedeutet, dass CDOs genau darüber nachdenken müssen, was zuerst automatisiert werden sollte. Einige gute Beispiele dafür, wo Automatisierung ein kostengünstiger Schritt ist, könnten die manuelle Programmierung von SQL, das Schreiben von Skripten oder die manuelle Verwaltung von Metadaten sein.

4. Mit Veränderungen rechnen
Die Modernisierung und Automatisierung des Data Warehouse ist leider kein Projekt mit einem definierten Ziel, da sich das Data Warehouse jedes Mal anpassen muss, wenn sich die Geschäftsanforderungen ändern oder neue Datenquellen entstehen.
Entsprechend müssen CDOs ständig in der Lage sein, verschiedene Teile der Infrastruktur anzupassen. Um Störungen zu minimieren und den Übergang für Geschäftsanwender zu erleichtern, sollten CDOs bei der Modernisierung einen schrittweisen Ansatz mit einem festen Zeitplan wählen, und genau definieren, wann unterschiedliche Stufen der Modernisierung erfüllt werden.

Unternehmen, die den Wert ihrer Daten steigern möchten, sollten auf die Automatisierung ihres Data Warehouse setzten. Dieser Wandel positioniert die IT-Abteilung so, dass sie zeitgemäße Technologien und neue Datenquellen leichter integrieren und flexibler agieren kann, wenn es die Geschäftsanforderungen erfordern. Ohne eine robuste Data Warehouse-Automatisierung werden Unternehmen zukünftig kaum das "fünfte V" der Datenspeicherung erreichen können.
(WhereScape: ra)

eingetragen: 02.04.19
Newsletterlauf: 18.04.19

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

Wie reagiert man auf Angriffe des Dienstleisters?

Im neuesten Sophos Threat Report: Cybercrime on Main Street berichten die Security-Experten, dass das "Sophos MDR Team" in 2023 vermehrt auf Fälle reagierte, in denen Unternehmen über die sogenannte Supply Chain, sprich die Lieferkette im Business und in der IT-Infrastruktur, attackiert wurden. In mehreren Fällen lagen die Schwachstellen in der Remote-Monitoring- und Management-Software (RMM) eines Dienstanbieters.

Dauer-Renaissance von Tape

Bei jeglicher Art von Datenverlust – sei es durch einen technischen Ausfall, menschliche Fehler oder durch einen Angriff von Cyberkriminellen – ist es das Backup-Recovery-System, das Unternehmen aus der misslichen Situation hilft. Um diesen Rettungsanker stets zur Verfügung zu haben, ist es wichtig, bei der Datensicherung auf eine professionelle Software zu setzen, die unterschiedliche Speichertechnologien bedienen kann, von On-Premise- bis hin zu Cloud-Speicher.

Phishing-Betrug per E-Mail

Business E-Mail Compromise (BEC) ist eine Art von Phishing-Betrug per E-Mail, bei dem ein Angreifer versucht, Mitglieder einer Organisation dazu zu bringen, z.B. Geldmittel oder vertrauliche Daten zu übermitteln. Der aktuelle Arctic Wolf Labs Threat Report fand heraus, dass sich diese Angriffstaktik fest etabliert hat.

Transparenz für KI-Algorithmen

Funktionalität und Komplexität geschäftsorientierter KI-Anwendungen haben exponentiell zugenommen. DevOps-Tools, Security-Response-Systeme, Suchtechnologien und vieles mehr haben von den Fortschritten der KI-Technologie profitiert. Vor allem Automatisierungs- und Analysefunktionen haben die betriebliche Effizienz und Leistung gesteigert, indem sie komplexe oder informationsdichte Situationen verfolgen und darauf reagieren.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.