openPR Recherche & Suche
Presseinformation

In fünf Schritten zur richtigen Big-Data-Technologie

10.08.201513:12 UhrIT, New Media & Software

(openPR) Dortmund, 10. August 2015 – In-Memory-Computing, Hadoop, NoSQL – am Big-Data-Markt tummeln sich zahlreiche Technologien mit unterschiedlichen Stärken und Schwächen. Der IT-Dienstleister adesso AG erläutert die wichtigsten Schritte auf dem Weg zur passenden Big-Data-Technologie.



Big Data ist nicht in erster Linie eine Frage der Technologie, sondern der Strategie. Eine Big-Data-Technologie kann nur dann gewinnbringend eingesetzt werden, wenn der gewünschte Nutzen vorab mit allen Projektbeteiligten – von Fachabteilung bis IT – eindeutig definiert wurde. Erst nach einer Potenzialanalyse lässt sich die Frage nach der richtigen Technologie beantworten. Worauf sollten Unternehmen bei der Auswahl besonders achten? adesso zeigt das richtige Vorgehen anhand von fünf Schritten auf:

1. Anwendungsfälle ermitteln. In einem ersten Schritt sollten Unternehmen aus ihrer Unternehmensstrategie, ihren Zielen und ihren Kernkompetenzen ableiten, welchen Mehrwert ihnen Big Data liefern kann, und so konkrete Nutzungsszenarien ermitteln. Unternehmen aus dem Automotive-Sektor beispielsweise könnten basierend auf Informationen aus den Daten der Steuerungssysteme von Fahrzeugen neue Services ableiten – etwa Ferndiagnosen oder Wartungs- und Verschleißhinweise. Die Definition der tatsächlichen Anwendungsfälle sollte allerdings mit viel Bedacht durchgeführt werden, um Fehlinvestitionen zu vermeiden.

2. Reifegrade überprüfen. Einige Anwendungsfälle können zwar sehr interessant und vielversprechend sein, die benötigten Daten aber noch nicht die erforderliche Reife aufweisen – beispielsweise, wenn Systeme, die Daten liefern, erst neu integriert oder vorhandene Daten bisher nur angesammelt und noch nicht klassifiziert wurden. Auch Aspekte jenseits von Technologien und Daten spielen meist eine entscheidende Rolle für die Bewertung eines Anwendungsfalls: Zum Beispiel, wie viele Organisationseinheiten sind beteiligt, wie stark sind Datenschutzfragestellungen betroffen, wie sehr spielen Compliance-Anforderungen eine Rolle? Durch derartige Hürden könnte ein Big-Data-Vorhaben trotz großem Nutzenpotenzial scheitern. Deshalb ist es sinnvoll, zunächst Projekte anzugehen, die eine kurz- oder mittelfristige Umsetzung ermöglichen. Beispielsweise solche, für die einerseits eine sicher verwertbare Datenbasis vorliegt, auf die sich einfach zugreifen lässt, und mit denen andererseits alle beteiligten Organisationseinheiten gut zusammenarbeiten können.

3. Konsens herstellen. Die Entscheidung, welche Anwendungsfälle ein Unternehmen umsetzt, sollte unbedingt im Konsens zwischen Fachbereichen und IT-Abteilung getroffen werden. Geschieht dies nicht, ist das Risiko sehr hoch, dass die Fachbereiche andere Vorstellungen und Ziele haben, als die IT dann umsetzt. Gegenseitiges Verständnis und eine enge Zusammenarbeit sind bei Big-Data-Projekten besonders wichtig, vor allem dort, wo die Resultate komplexer maschineller Lernverfahren interpretiert werden müssen. Üblicherweise können nur die Experten aus den Fachabteilungen verstehen und erklären, welche Ergebnisse einer Datenanalyse interessant und relevant sind. Dieser fachliche Input ist höchst relevant für das "Tuning", also die Einstellung später eingesetzter Datenanalyseverfahren.

4. Kriterien ableiten. Stehen die Anwendungsfälle fest, lässt sich daraus ableiten, welche Eigenschaften die eingesetzte Technologie mitbringen muss. So benötigen manche Szenarien eher die Ad-hoc-Abfrage von Daten, andere dagegen bestimmte Aggregationen, erkundende Verfahren oder Verfahren für Vorhersagen oder Empfehlungen. Weitere wichtige Kriterien, die sich aus den Nutzungsszenarien ergeben, sind unter anderem die erforderliche Integrierbarkeit mit existierenden Anwendungen im Unternehmen, die Geschwindigkeit und der Umfang des Datenflusses, die erforderliche Bearbeitungsgeschwindigkeit der Daten oder der richtige Umgang mit den vorhandenen Datenstrukturen.

5. Technologie auswählen. Anhand der so ermittelten Kriterien lässt sich dann gezielt die passende Technologie auswählen. Die heute verfügbaren Datenverarbeitungsplattformen von Hadoop über NoSQL bis hin zu relationalen Datenbanken unterstützen nicht nur unterschiedliche Skalierungsmechanismen, sie unterstützen auch unterschiedliche Vorgehensweisen. Ist mit häufiger Veränderung zu rechnen beziehungsweise ist die Aufrechterhaltung von Diensten auch bei Veränderung besonders wichtig, dann muss die Datenverarbeitung die benötigte Flexibilität mitbringen. Verlangt ein Anwendungsfall besonders hohe Verarbeitungsgeschwindigkeiten, empfiehlt sich In-Memory-Computing. Stehen hohe Skalierbarkeit sowie eine schnelle Speicherung und eine einfache Abfrage riesiger Datenmengen im Vordergrund, spricht das für Key-Value-Datenbanken. Traditionelle relationale Datenbanken sind in diesem Fall dagegen eher nicht geeignet, da sie komplexere Skalierungsmodelle unterstützen und einen hohen Aufwand für den Umgang mit heterogenen oder sich häufig ändernden Daten erfordern. Eine allgemeingültige Regel gibt es allerdings nicht. Die vorhergehende Auseinandersetzung mit den Anwendungsfällen ist deshalb entscheidend.


Diese Presseinformation kann auch unter www.pr-com.de/adesso abgerufen werden.

Diese Pressemeldung wurde auf openPR veröffentlicht.

Verantwortlich für diese Pressemeldung:

News-ID: 865605
 128

Kostenlose Online PR für alle

Jetzt Ihren Pressetext mit einem Klick auf openPR veröffentlichen

Jetzt gratis starten

Pressebericht „In fünf Schritten zur richtigen Big-Data-Technologie“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von adesso

Bild: adesso erhöht Mitarbeiterzahl auf 5.000Bild: adesso erhöht Mitarbeiterzahl auf 5.000
adesso erhöht Mitarbeiterzahl auf 5.000
Ungebremstes Unternehmenswachstum im Corona-Jahr - adesso verdoppelt sich innerhalb von dreieinhalb Jahren - Einstellungsrekord in 2020: monatlich rund 90 Neueinstellungen - Mit Manja Dathe-Marchlewitz erreicht adesso die 5.000-Mitarbeiter-Marke* Dortmund/Berlin, 16. November 2020 - Das Wachstum des IT-Dienstleisters adesso geht ungebremst weiter: Das Unternehmen rechnet für dieses Geschäftsjahr nicht nur erstmals mit mehr als 500 Millionen Euro Umsatz, sondern begrüßt im November auch die 5000. Mitarbeiterin im Konzern. Mit durchschnit…
Bild: adesso unterstützt Migrations-Großprojekt für die Landesverwaltung Nordrhein-WestfalenBild: adesso unterstützt Migrations-Großprojekt für die Landesverwaltung Nordrhein-Westfalen
adesso unterstützt Migrations-Großprojekt für die Landesverwaltung Nordrhein-Westfalen
Dortmund, 9. November 2020 - Der Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW) hat ein zweijähriges Großprojekt zur Ablösung des zentralen Großrechners in der NRW-Landesverwaltung erfolgreich abgeschlossen. Ein Teil dieses Vorhabens wurde durch den IT-Dienstleister adesso umgesetzt. Der Dortmunder IT-Spezialist war mit der Modernisierung und Migration von speziellen Verwaltungsverfahren des Landes Nordrhein-Westfalen in eine moderne Systemarchitektur beauftragt worden. Gegenstand des Migrationsprojekts in der Landesverwa…

Das könnte Sie auch interessieren:

Actian präsentiert neue Plattformen für Cloud-Integration und Big Data-Analytik
Actian präsentiert neue Plattformen für Cloud-Integration und Big Data-Analytik
… Datenintegration beschäftigen wollen. • Basic Connect – Fertige Apps, Maps und Datendienste, mit denen geschäftliche Anwender in einer bedienungsfreundlichen Oberfläche mit nur drei Schritten selbst Zuordnungen zwischen den gewünschten Dateien oder Applikationen herstellen können, ohne sich um komplexe Aspekte der Datenintegration kümmern zu müssen. • Advanced …
Bild: Aster Data erhält Patent für SQL-MapReduce-TechnologieBild: Aster Data erhält Patent für SQL-MapReduce-Technologie
Aster Data erhält Patent für SQL-MapReduce-Technologie
Düsseldorf, 26. Juli 2011 – Aster Data, ein auf Big Data Analytics und das Management unstrukturierter Daten spezialisierter Software-Anbieter, hat für seine selbstentwickelte SQL-MapReduce-Technologie das US-Patent Nummer 7966340 erhalten. SQL-MapReduce ist eine Softwareumgebung (Framework), die es sowohl Datenbankspezialisten als auch Business-Nutzern erleichtert, schnell riesige Mengen komplexer Daten zu analysieren und weitergehende Erkenntnisse aus diesen zu gewinnen. Unternehmen wie der größte US-Buchhändler Barnes & Noble oder das US-M…
pmOne unterstützt Go-to-Market von Microsoft HDInsight
pmOne unterstützt Go-to-Market von Microsoft HDInsight
Enge Kooperation bei der neuen Microsoft-Technologie HDInsight / Kunden von pmOne profitieren bei Analyse von Big Data Unterschleißheim, 7. Februar 2013 – Durch ihre Beteiligung am Microsoft Big Data Incubation Program unterstützt die pmOne AG den Go-to-Market von Microsoft HDInsight. Im Rahmen des Big Data Partner Incubation Program arbeitet Microsoft eng mit ausgewählten Partnern zusammen, um die Einführung von HDInsight zu beschleunigen. HDInsight ist eine mit Apache Hadoop kompatible Technologie, die es Anwendern erlaubt, große Mengen po…
eccenca goes Big Data
eccenca goes Big Data
Um ihre Wettbewerbsfähigkeit in Zeiten von Big Data und Industrie 4.0 zu sichern, müssen Unternehmen ihre Daten und Prozesse so effizient und so dynamisch wie möglich organisieren und analysieren. Um auch Lösungen für die Analyse sehr großer und komplexer Datenmengen anbieten zu können, erweitert das Leipziger Unternehmen seine Technologieplattform eccenca Linked Data Suite (eLDS). Mit der Plattform eLDS können sogenannte Knowledge Graphs erzeugt, integriert und verwaltet werden. Eine Technologie, die vor allem für Lösungen zur Datenvirtuali…
SAS In-Memory Statistics for Hadoop ermöglicht schnelle und präzise Big Data Analytics
SAS In-Memory Statistics for Hadoop ermöglicht schnelle und präzise Big Data Analytics
Heidelberg ---- SAS, einer der weltgrößten Softwarehersteller, bringt eine interaktive Analytics-Lösung für das Open-Source-Framework Hadoop auf den Markt. Damit können Unternehmen schneller neue Lösungen und Modelle entwickeln - und so tief gehende und präzise Erkenntnisse aus ihren Big Data Assets ziehen. Die neue Software auf Basis der SAS In-Memory-Technologie hilft, Geschäftsergebnisse unterm Strich zu verbessern, Risiken zu reduzieren, aussagekräftige Einblicke in Kundenverhalten zu gewinnen und dadurch insgesamt die Erfolgschancen zu e…
Bild: Hochleistungsmarketing: Strategie trifft IT in der Marketing CityBild: Hochleistungsmarketing: Strategie trifft IT in der Marketing City
Hochleistungsmarketing: Strategie trifft IT in der Marketing City
… bis hin zu übergreifenden Themen wie z. B. Conversion-Optimierung, kanalübergreifende Customer Experience, Big Data und Targeting. arvato Systems unterstützt in allen Schritten: beginnend mit der Analyse des Ist-Zustandes über die Auswahl und Umsetzung der passenden Softwaretechnologie sowie die Modellierung und unternehmensweite Einbindung einzelner …
Große Veränderungen in der IT zwingen IT-Dienstleister zum Umdenken
Große Veränderungen in der IT zwingen IT-Dienstleister zum Umdenken
… Umfangs der neuen Wissensbereiche gar nicht so einfach." Eine systematische Vorgehensweise kann ihnen helfen, sich zu sortieren, und so rät Consol zu folgenden Schritten: 1. Ziele festlegen. Welche Art von Dienstleistung wollen IT-Dienstleister in welchem Umfang anbieten? Sollen Unternehmen tatsächlich ganzheitlich beraten werden? Was ist die Tragweite, …
ParStream gewinnt weltweit führende Datenbank-Pioniere für den Technologie-Beirat
ParStream gewinnt weltweit führende Datenbank-Pioniere für den Technologie-Beirat
Köln, 28.03.2013 ParStream, ein führender Anbieter von Big Data Analysen in Echtzeit, gab die Ernennung von Don Haderle, Volker Markl, Marie-Anne Neimat und Andy Palmer) als Technologischen Beirat bekannt. Der weithin als "Vater des DB2" bekannte Don Haderle war verantwortlich für Design und Architektur der IBM Database 2 (DB2). Darüber hinaus leistete Haderle unter anderem Pionierarbeit bei diversen Technologie-Initiativen für relationale Datenbanken auf offenen Systemen, verteilten Infrastrukturen und Content-Management Systemen. Volker …
Bild: Erfolgreicher Relaunch von JamestownBild: Erfolgreicher Relaunch von Jamestown
Erfolgreicher Relaunch von Jamestown
… lag das Augenmerk bei der Präsentation der einzelnen Fonds besonders auf einer service¬orientierten Informationsvermittlung an interessierte Investoren. Dabei wurde in allen wichtigen Schritten des Relaunchs stets die Übertragung des Brand- und Corporate-Designs des Kunden im Fokus behalten und umge¬setzt und das seriöse Erscheinungsbild bewahrt. Auf …
Bild: Digitalization Learning meets Data ScienceBild: Digitalization Learning meets Data Science
Digitalization Learning meets Data Science
… kündigen E-Learning-Kooperation für digitale Kompetenzvermittlung und Wissen in Data Science & Data Analytics an • Digitalisierung schreitet mit riesen Schritten voran • Mitarbeiter müssen den Digitalisierungsprozess verstehen • Durch gezieltes Online Learning wird das Digitalisierungswissen durchgängig gestärkt • Wissen heißt Akzeptanz und Unterstützung …
Sie lesen gerade: In fünf Schritten zur richtigen Big-Data-Technologie