openPR Recherche & Suche
Presseinformation

Hochverfügbarkeit im Data Warehouse

27.03.201718:57 UhrIT, New Media & Software

(openPR) Big Data, Small Data, Sensor- oder Log-Daten, strukturiert oder unstrukturiert – deutsche Unternehmen nutzen endlich ihre Informationen: Bei vier Fünfteln basieren Unternehmensentscheidungen auf Datenanalysen, so eine Studie (https://www.bitkom.org/Presse/Anhaenge-an-PIs/2016/Juni/Bitkom-Research-KPMG-Mit-Daten-Werte-schaffen-10-06-2016-final.pdf). In modernen Data-Warehouse-Architekturen sollten heute Informationen zentral, sicher, indexiert und bereits vorsortiert für weiterführende Analysen vorliegen. Doch was ist, wenn beispielsweise ein Server ausfällt oder ein Netzteil in Rauch aufgeht? Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Zusammenhang mit dem Data Warehouse (DWH) immer wichtiger und beschäftigen Big-Data-und DWH-Experten wie Markus Ruf von der mip GmbH.



„Die frühere Ansicht, dass Daten nicht unbedingt hochverfügbar sein müssen, da ja Unternehmen ohne sie bzw. ohne Auswertungen und Analysen weiter funktionieren können, zählt heute nur noch eingeschränkt“, erklärt Ruf. Zwar haben immer noch die tatsächlich wertschöpfenden Prozesse Priorität. Jedoch sind in der Zwischenzeit Informationen sowie Datenanalysen teilweise selbst zu wertschöpfenden Prozessen in Unternehmen geworden. Vortages- oder Tagesauswertungen gehören zu wichtigen Entscheidungshilfen für Vorstände, Management und Unternehmensführung, genauso wie für Abteilungen. „Daten etwa zum Kundenverhalten sind heute wesentlich für aktuelle sowie künftige Entwicklungen und Trends – Stichwort: Predictive Analytics“, so Ruf.

Hochverfügbares Data Warehouse: Welche Variante macht Sinn?

Auch wenn bei einem Ausfall die Firma nicht gleich zusammenbricht, ist ein hochverfügbares DWH sinnvoll. Welche Methode bzw. Hochverfügbarkeitsstrategie sich hierfür am besten eignet, muss von Fall zu Fall am besten zusammen mit DWH-Experten geprüft werden: Wie lange darf mein DWH im Jahr höchstens ausfallen? Müssen die Daten 24 Stunden am Tag, 7 Tage die Woche vorliegen? Damit hängt meist auch die Frage zusammen, wie viel das Thema Hochverfügbarkeit überhaupt kosten darf.
Sehr häufig wird ein Data Warehouse nur tagesaktuell genutzt. Aber selbst wenn bei einem Ausfall die Berechnungen und Auswertungen über Nacht nicht stattfinden können, weil kein paralleler bzw. gespiegelter DWH-Aufbau vorliegt, lassen sich die Informationen aus den operationalen Daten wiedergewinnen. „Eine Herausforderung ist jedoch, dass einige Firmen ihre Daten direkt im Data Warehouse archivieren und so nicht mehr alles aus dem operativen System rekonstruieren können“, erklärt Ruf. „Hier ist es deshalb entscheidend, dass die Informationen zum Beispiel auf einem parallel betriebenen DWH oder in der Cloud gesichert sind.“

Verschiedene Wege führen zu mehr Hochverfügbarkeit

Um Daten hochverfügbar zu machen, existieren mehrere Methoden, die jeweils von der im Vorfeld ermittelten höchstmöglichen Ausfallzeit und dem eigenen Geldbeutel abhängen. Dazu gehören:

1. eine vollständige (und bestenfalls automatisierte) Rekonstruktion der Daten aus den operativen Vorgängen (über Nacht) – allerdings mit einem Tag Verzögerung

2. die Virtualisierung des Data Warehouse über eine virtuelle Maschine (VM): Wenn eine DWH-Hardware-Komponente ausfällt, wird die VM einfach auf einen anderen physikalischen Server oder ins Storage Area Network (SAN) verschoben. So lässt sich das DWH wieder starten. Diese Variante setzt voraus, dass der Storage- bzw. VM-Server nicht ausgefallen ist. Erst eine Spiegelung auf der physikalischen Ebene macht das System hochverfügbar.

3. ein HADR-Cluster (High-Availability Data Replication) in der Datenbank selbst: Während der Datenaufbereitung wird eine Kopie des gesamten DWH angelegt. Somit lassen sich die Informationen bereits dort auf einer zweiten physikalischen Ebene spiegeln. Das hat aber auch Performance-Einbußen zur Folge, weil die Daten jedes Mal doppelt geschrieben werden müssen.

Synchron oder asynchron – das ist hier die Frage

Beim Thema Hochverfügbarkeit im Data Warehouse muss zudem im Vorfeld entschieden werden, ob dieser Bereich synchron oder asynchron aufgebaut werden soll. „Bei angestrebter Synchronität muss man stets darauf warten, bis alle Informationen geschrieben worden sind, was ein DWH langsam macht“, so Ruf. „Beim asynchronen Schreiben der Daten können diese allerdings verloren gehen, während sie ins DWH übernommen werden.“ Die wenigen so eingebüßten Datensätze lassen sich jedoch wieder per Datenrekonstruktion vervollständigen. Hier müssen sich Unternehmen entscheiden, ob sie nicht zugunsten einer höheren Performance eventuelle Datenverluste verschmerzen können.

Cloud und Hochverfügbarkeit

Geht es darum, Daten im Notfall dynamisch verschieben zu können, kommt beim Thema Hochverfügbarkeit die Cloud ins Spiel. Hierbei sind aber wieder zwei Seiten zu betrachten. Ruf: „Zum einen liegen die bekannten Cloud-Vorteile vor, wie etwa mehr Flexibilität durch eine bedarfsgerechte Speicherplatznutzung, ein höherer Sicherheitsstandard, den sich Firmen aus dem Mittelstand so gar nicht leisten können, und die wegfallenden bzw. geringeren Wartungs- sowie Administrationsaufwände.“ Wenn das komplette Data Warehouse in der Cloud aufbereitet wird, etwa als Database-as-a-Service (DBaaS), werden bestenfalls nur die Deltas aus den operativen Prozessen in die Cloud übertragen, wodurch keine Performance-Probleme auftreten. Allerdings könnten im schlechtesten Fall beide DWHs asynchron auseinanderlaufen.

„Arbeitet die Firma jedoch mit einem lokal aufgebauten Data Warehouse, welches zunächst alle Daten verarbeitet, um dann das gebündelte Gesamtvolumen zur Absicherung in die Cloud zu übertragen, kann sich dies auf die Performance auswirken“, beschreibt Ruf. Übertragungsgeschwindigkeiten von einem Gigabyte pro Sekunde reichen bei einem DWH mit Massendaten-Transfer bis zu mehreren Terabyte pro Nacht nicht mehr aus. Außerhalb der von Providern gut abgedeckten Gebiete sind Gigabyte-Bandbreiten allerdings kaum bis gar nicht verfügbar.

Hochverfügbare DWH-Strategien verlangen genaue Planung

Bereits vor dem Aufbau eines Data Warehouse und einer entsprechenden IT-Infrastruktur sollte deshalb darauf geachtet werden, welche DWH-Strategie das Unternehmen verfolgen möchte. Die grundlegende Frage lautet dabei, wie sich das DWH-Architektur-Konzept so aufsetzen lässt, dass das lokale DWH und die DBaaS-Lösung synchron laufen, ohne durch einen Infrastrukturteil wie eine langsame Cloud-Anbindung ausgebremst zu werden.

Eine hybride Cloud ist beispielsweise dann sinnvoll, wenn ein asynchrones Modell verfolgt wird, bei dem sich mit einem Versatz von ein oder zwei Stunden arbeiten lässt. Damit lassen sich immer so viele Daten verschieben, wie die jeweilige Bandbreite erlaubt, während die User im On-Premise-DWH auf die aktuellen Daten zugreifen können. Wenn nur in der Cloud gearbeitet wird, besteht immer ein Zeitversatz-Problem. Teams, die an verschiedenen Standorten am gleichen Projekt arbeiten, müssen so mit unterschiedlich aktuellen Informationen arbeiten, was zu Fehlern führen kann.

Übergangsphase von On-Premise in die Cloud

Ruf: „Wir bei mip gehen davon aus, dass es künftig für Kunden einfacher wird, mit Echtzeitdaten aus ihren DWHs zu arbeiten. Das Hauptproblem bezüglich Datentransfers ist ja, dass die meisten Unternehmen ihre großen ERP-Systeme heute noch lokal installiert haben und auf dieser Ebene die operativen Daten erzeugen.“ Deshalb müssen sich Firmen beim Thema Data Warehouse überlegen, ob sie die Daten aus der ERP-Lösung in zwei physikalische, parallel laufende und damit hochverfügbare DWHs verschieben oder alternativ VMs bzw. eine zeitversetzt arbeitende hybride Cloud-Architektur nutzen – mitsamt Performance-Einbußen oder asynchronen Datensätzen.

„In Zukunft werden aber verstärkt auch die großen IT-Infrastrukturen über die Cloud betrieben“, führt Ruf weiter aus. „Infrastructure-as-a-Service oder Cloud-Systeme werden gerade von den ERP-Anbietern vorangetrieben.“ Dabei ‚zwingen‘ SAP Hana Cloud Platform, Microsoft Dynamics Nav etc. Unternehmen dazu, mit ihrer gesamten IT in die Cloud umzuziehen, da sie sonst keine Software-Unterstützung mehr erhalten. Dann werden sowohl operative Daten als auch DWHs in der Cloud liegen, also in großen Rechenzentren. Durch die kurzen Wege sowie den schnell erweiterbaren Speicherplatz verschwinden Performance-Probleme. Die jeweiligen finanziellen Möglichkeiten bestimmen dabei die Übertragungsgeschwindigkeit sowie die Ausfallsicherheit.

Diese Entwicklung wird von den Anbindungsmöglichkeiten der Unternehmen an die Cloud bzw. der Netzwerk-Topologie der Provider abhängen. An die Frage nach einem uneingeschränkten Datenzugriff schließt sich auch die Diskussion um den Ausbau des Glasfasernetzes in Deutschland an – andere Länder sind schon viel weiter. „Hier muss sich noch einiges tun, damit auch die Unternehmen aus Randgebieten besser angebunden werden“, so Ruf. „Denn eine Hochverfügbarkeit ist erst dann gegeben, wenn ich über zwei getrennte Internet-Leitungen von zwei unterschiedlichen Providern verfüge. Der berühmt-berüchtigte Bagger, die häufigste Ursache für einen Ausfall, lauert überall!“

Eine Infografik zum Thema unter: https://mip.de/hochverfuegbarkeit-im-data-warehouse/

Diese Pressemeldung wurde auf openPR veröffentlicht.

Verantwortlich für diese Pressemeldung:

News-ID: 944821
 543

Kostenlose Online PR für alle

Jetzt Ihren Pressetext mit einem Klick auf openPR veröffentlichen

Jetzt gratis starten

Pressebericht „Hochverfügbarkeit im Data Warehouse“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von mip GmbH

Innovationsrunde rund um digitale Transformationsprozesse
Innovationsrunde rund um digitale Transformationsprozesse
Die Themen Digitalisierung, Industrie 4.0, Internet of Things, Big Data oder Business Analytics haben in den letzten Jahren zunehmend Fahrt aufgenommen. Es herrscht Aufbruchstimmung. Der Weg in eine neue Welt? Laut einer Umfrage des Digitalverbands Bitkom zählt die Digitalisierung zu den wichtigsten Themen für deutsche Unternehmen. So sind 86 Prozent von der Notwendigkeit zur Digitalisierung überzeugt, damit Deutschland in bedeutenden Branchen wie dem Maschinenbau oder der Automobilindustrie seine Position auf dem internationalen Weltmarkt ve…
Mit Wissen zum Erfolg – und wie Enterprise Search dabei helfen kann
Mit Wissen zum Erfolg – und wie Enterprise Search dabei helfen kann
„Denn Wissen ist Macht“ – dieses berühmte Zitat gilt damals wie heute. Auch für Unternehmen wird Wissen immer wertvoller. Informationen machen heute einen zunehmenden Teil des Unternehmenswerts aus, so eine Studie (Quelle: Studie von Bitkom Research und KPMG: „Mit Daten Werte schaffen – Report 2016“). Deshalb spielen Themen wie Big Data, Predictive Analytics oder Wissensmanagement eine immer wichtigere Rolle für Unternehmen, um aus den vorhandenen Daten Informationen zu gewinnen. Oft scheitert die Daten-Verwertung aber bereits an fehlenden fi…

Das könnte Sie auch interessieren:

Bild: Release: Infrastructure Center v6.2 für VMware und XenServer steigert Business ContinuityBild: Release: Infrastructure Center v6.2 für VMware und XenServer steigert Business Continuity
Release: Infrastructure Center v6.2 für VMware und XenServer steigert Business Continuity
… wurden durch eine Zentralisierung des Daten-Managements im IC-Server optimiert. Auswirkungen hat dies auf die gesamten Grundfunktionen der Business Continuity wie Hochverfügbarkeit und Wiederherstellungszeiten, die laut Hersteller wesentlich verkürzt werden konnten. Folgende Neuerungen sind Bestandteil von IC v6.2: - ICW für schnelleres und verbessertes …
Bild: Happyware erweitert in Kürze Storageportfolio im 2,5” SegmentBild: Happyware erweitert in Kürze Storageportfolio im 2,5” Segment
Happyware erweitert in Kürze Storageportfolio im 2,5” Segment
… Dabei sorgt SAS II für die benötigte Übertragungsgeschwindigkeit und optimale Performance. Für noch höhere Performance ist der Einsatz von SSDs sinnvoll. Für gewohnte Sicherheit sorgt die Hochverfügbarkeit des redundanten 1400 Watt Gold Level Netzteils sowie eine großzügige Anzahl 7 x 8 cm Hot-Swap Lüftern. Gleichzeitig wird so die optimale Leistung pro …
PBS Interface-Lösung ContentLink für NetApp Filer jetzt von SAP WebDAV 2.0 zertifiziert
PBS Interface-Lösung ContentLink für NetApp Filer jetzt von SAP WebDAV 2.0 zertifiziert
… ContentLink, der über keine eigene Datenbank verfügt, als kostengünstige Alternative zu einem Content Management System. Dazu kommen weitere Vorteile wie hohe Skalierbarkeit, Hochverfügbarkeit sowie geringe Administration. Mit der Integration des SAP WebDAV 2.0 Protokolls ergeben sich für den PBS ContentLink viele neue Einsatzmöglichkeiten. Mehr Informationen …
Bild: Teradata schafft systemübergreifende Analyse-UmgebungenBild: Teradata schafft systemübergreifende Analyse-Umgebungen
Teradata schafft systemübergreifende Analyse-Umgebungen
… und Datenbanken. Die Software unterstützt alle Mitglieder der Teradata Plattformfamilie. Mit ihrer Hilfe können Unternehmen ihre Teradata Analytical Ecosystems hinsichtlich Hochverfügbarkeit, Notfallwiederherstellung und Workload-Verteilung zwischen den einzelnen Teradata Systemen optimieren. Je nach den auf den Systemen vorgehaltenen Daten und der aktuell …
LFS-on-Demand von E+P: flexibel und bedarfsgerecht
LFS-on-Demand von E+P: flexibel und bedarfsgerecht
… ERP-Systemen. Für LFS-on-Demand ist anwenderseitig keine IT-Administration erforderlich. Betrieb, Wartung und Überwachung erfolgen im E+P-eigenen Rechenzentrum. So gewährleistet E+P die Hochverfügbarkeit der Lösung bei höchster Sicherheit und höchstem Datenschutz. "Der Datenaustausch erfolgt über eine Standard-Schnittstelle", so Marco Erhardt. "Je nach …
Bild: Datawarehousing mit MySQL 5.4 und MySQL Cluster 7 und dem MySQL Enterprise Gold Partner dignum GmbHBild: Datawarehousing mit MySQL 5.4 und MySQL Cluster 7 und dem MySQL Enterprise Gold Partner dignum GmbH
Datawarehousing mit MySQL 5.4 und MySQL Cluster 7 und dem MySQL Enterprise Gold Partner dignum GmbH
… wichtigsten Argumente für den Einsatz von MySQL sind unter anderem: Skalierbarkeit und Flexibilität Hohe PerformanzHochverfügbarkeit Stabile Transaktionsunterstützung Stärken für Web- und Data Warehouse-Anwendungen Zuverlässiger Datenschutz Umfassende Anwendungsentwicklung Einfache Verwaltung Unabhängigkeit durch Open-Source und 24x7-Supportleistungen Niedrigste …
Puma und W+P Solutions vertiefen innovative Partnerschaft für weiteres Wachstum
Puma und W+P Solutions vertiefen innovative Partnerschaft für weiteres Wachstum
… W+P bietet hocheffiziente Eingabe-Mechanismen bei Massen-Erfassungen, unterstützt alle Prozesse in komplexen Organisations- und Prozessformen und bietet konsistente Informationen mit Hochverfügbarkeit. Dies ist gerade für die Fashion-Branche ein maßgebliches Kriterium für Arbeitseffektivität auf Ebene des Users", ergänzt Achim Wieber, Geschäftsführer …
Bild: SAP-ExpertiseBild: SAP-Expertise
SAP-Expertise
… mittleres Erzgebirge. Im IT-Projekt bei der Constantia Hueck implementierte PROFI die erste SAP-Installation auf IBM Power7 Systemen, wodurch Infrastruktur und Hochverfügbarkeit gefestigt wurden. „Der Flughafen Stuttgart modernisierte seine gesamte SAP-Server-Infrastruktur mit der Unterstützung durch PROFI auf der Grundlage des „Green IT“-Gedankens. …
Bild: COGLAS auf der LogiMAT 2009Bild: COGLAS auf der LogiMAT 2009
COGLAS auf der LogiMAT 2009
… und leistungsfähigere Systeme gefragt. Hinzu kommen die Forderungen großer Kunden, sich auch an ihren individuellen Logistikprozessen zu orientieren. Flexibilität und Hochverfügbarkeit sind somit unabdingbare Voraussetzungen, um mit der Intralogistik Produktions- und Distributionsprozesse optimal zu unterstützen. Im Bereich Produktionslogistik zeigen …
Arcor setzt auf die Xyna Service Factory
Arcor setzt auf die Xyna Service Factory
… Geschäftskundenaufträgen spielt darüber hinaus die Integration flexibler Konfigurationsschritte (Smart Automation) eine entscheidende Rolle.“ Anspruchsvolle Leistungsvorgaben hinsichtlich Performance und Hochverfügbarkeit der Gesamtlösung (garantierte 99,999%) ergänzen die Herausforderungen. Die Lösung: Xyna Service Factory Die Xyna Service Factory ist die …
Sie lesen gerade: Hochverfügbarkeit im Data Warehouse