… schnell ein Bild über netzweite Daten verschaffen können.“
Funktionsumfang von railOscope
- Unterstützt Fahrplan-, Infrastruktur- und Fahrzeugdaten
- Beinhaltet Daten-Validierung und Qualitätsprüfung
- Umfasst Bildfahrplan, Gleisbelegungsplan, Topologiesicht, Fahrplananimation, tabellarische Übersichten
- Effizient auch für grosse Datenmengen (> 100 MB)
- Unterstützt railML 1.0, 1.1, 2.0, 2.1, 2.2
- Kann auch mit fehlerhaften Daten umgehen
Dateien verschiedener Quellen können kombiniert werden
- Verfügbar für Windows, Mac und Linux
- Einfach zu …
… Software-Lösungen auf verschiedenen Datenbanken und Frontends. Moderne Business Intelligence Software muss Konsolidierungsaktivitäten unterstützen und sie in einen effizienten Prozess verwandeln.
Mit SAP HANA als In-Memory-Plattform erfolgt die Analyse, Planung und Simulation großer Datenmengen in Echtzeit. Unternehmen erhalten so messbare Wettbewerbsvorteile: Sie können schneller und präziser die richtigen Entscheidungen treffen. Die neue Business-Suite S/4HANA soll Unternehmen Quantensprünge in der Bewertung ihrer Daten erlauben. itelligence ermöglicht …
… Fachvorträge. Am zweiten Tag erleben die Teilnehmer Big Data live – nicht nur Entscheider, sondern auch Umsetzer und Entwickler.
Weitere Informationen und Anmeldeunterlagen finden Sie hier unter:
Big Data Lab 2015
Agenda und Referenten
• Keynote: Analyse großer Datenmengen - aber wie? Entwicklungen und Herausforderungen im Bereich BigData Analytics
Prof. J.C. Freytag – Humboldt-Universität zu Berlin
• Big Data Management – Stand der Innovationsadoption
Prof. Bernd Heesen – Hochschule Ansbach
• Mit digitalen Empfehlungen analoge Events aufwerten
Prof. …
… sich häufig über Schwankungen bei der Datennutzung aufspüren. Deutliche Veränderungen bei der Menge der herunter- und hochgeladenen Daten können darauf hinweisen, dass jemand oder etwas die Kontrolle über das Gerät erlangt hat.
Die Überwachung der übertragenen Datenmengen kann Ihnen Hinweise liefern, ob das Gerät von Malware betroffen ist, die es auf persönliche Daten abgesehen hat. Zudem lassen sich so zu hohe Telefonrechnungen vermeiden.
5. Leistungsminderungen
Abhängig von den Hardware-Voraussetzungen eines Geräts kann eine Malware-Infektion …
… Um durch diese turbulente Umwelt zu navigieren, brauchen Organisationen Media Intelligence in Echtzeit.
Die neue Meltwater-Plattform wurde komplett neu gestaltet und mit einer modernen Benutzeroberfläche und Workflows versehen. Mit ihr können Unternehmen
• große Datenmengen filtern und das Wesentliche aus Milliarden von Online-Konversationen erfassen,
• den Markt beobachten und ihren eigenen Einfluss messen, indem sie Markttrends und Kampagnenwirkung über Echtzeit-Analyse-Dashboards klar erfassen,
• mit wichtigen Influencern in Kontakt treten und …
… sagt Wafa Moussavi-Amin, Analyst und Geschäftsführer bei IDC Central Europe GmbH - Deutschland und Schweiz. „Wesentliche Treiber dafür sind insbesondere die Nutzung von Cloud Services, die Verbreitung von mobilen Geräten und Apps sowie stark wachsende Datenmengen. Diese Entwicklung fordert Unternehmen auf, etablierte Geschäftsmodelle und -prozesse hinsichtlich ihrer Zukunftsfähigkeit zu hinterfragen. Die vorliegende Studie zeigt den Handlungsbedarf für Unternehmen konkret auf.“
Über die Studie
IDC befragte im Dezember 2014 insgesamt 709 Information …
… kompletten Eigenkontrolle des Kunden.
Daten- und Backupspeicher mit bis zu 32 Terabyte verbauter Brutto-Festplattenkapazität bieten die im EUserv Rechenzentrum in Thüringen gehosteten 'Filer' - Server und ermöglichen Privatleuten, Gewerbetreibenen und Firmenkunden die Möglichkeit, riesige Datenmengen unter der eigenen Kontrolle zu behalten.
Private Cloud im Rechenzentrum
Mit vorgefertigten Betriebssystemen wie einer auf CentOS basierten OwnCloud Installation können Kunden mit nur einem Mausklick die Server installieren und schnell in Betrieb nehmen.
Es …
… der Sammlungen von Standardqueries oder kundenspezifisch erweiterte Queries jetzt an zentraler Stelle sammelt und verwaltet. Diese Queries sind parametrisierbar und wieder verwendbar. Hilfreich ist das besonders bei wiederholten Abfragen von sehr großen Datenmengen.
eCloudManager 6.0 bietet für das Data Center & Cloud Management Neuerungen. Patches von Unternehmensanwendungslandschaften werden jetzt automatisch im laufenden IT-Betrieb ohne Ausfallzeiten auf einzelne Bestandteile einer Landschaft eingespielt. Darüber hinaus können Sicherungen …
… entsprechenden Hardware und Software auszustatten. Wir konzipieren daher speziell abgestimmte Backup-Lösungen unter Berücksichtigung der individuellen RPO- und RTO-Anforderungen der Kunden.“
Daten gehören zu den wertvollsten Gütern eines jedes Unternehmens. Vor dem Hintergrund der stetig wachsenden Datenmengen stoßen viele Backup-Lösungen schnell an ihre Grenzen. Brinova erstellt deshalb individuelle Backup-Konzepte, die genau auf die Ressourcen und die Anforderungen des jeweiligen Kunden abgestimmt sind. Gerade in KMU sind die IT-Abteilungen personell …
… optimalen Planung, Steuerung und Umsetzung des Migrationsprozesses übernimmt DATA MART Consulting in diesem Jahr die Moderation eines Forums zum Thema „Data Quality im DWH“ und präsentiert einen Erfahrungsbericht zum Thema „Performanceoptimierung mit Exadata – Verarbeitung extremer Datenmengen mit PL/SQL-basierter Datenbewirtschaftung“.
Darüber hinaus können Teilnehmer DATA MART Consulting an seinem Partnerstand im Ausstellungsraum sowie an einem Live Spot im Show Room treffen. Wie in den Vorjahren wird es hier ausreichend Zeit für einen direkten …
… Datensicherungsfunktionen von FreeStor verbessern die Ausnutzung verfügbarer Speichermedien, so dass Unternehmen Speichereinheiten einsparen können. Zusammen mit den WAN-optimierten Replikations- und Datenmigrationsfunktionen lassen sich Kosteneinsparungen von bis zu 95 Prozent realisieren.
„Angesichts der Datenmengen, die heute in unterschiedlichsten Infrastrukturen erfasst und gespeichert werden, ist eine Vereinfachung des Datenmanagements jetzt wichtiger als je zuvor“, erläutert Gary Quinn, President und Chief Executive Officer von FalconStor. „Gerade vor …
… Lufthansa. „Es ermöglicht uns, tief in unseren Datenpool einzutauchen und rasch Antworten auf alle Arten von wichtigen Business-Fragen zu finden.“
Als neueste Erweiterung des Webtrends-Marketingportfolios ist Explore der Schlüssel zu den gigantischen Datenmengen, die kontinuierlich im Unternehmen eingehen. Die wichtigsten Vorteile sind:
• Hochdetaillierte, geräte- und kanalübergreifende Einblicke in die Customer Journey für eine attraktivere und konsistentere Kundenerfahrung
• Flexiblere, schnellere und effizientere Analyse des Online-Verhaltens über …
… mit seiner steigenden Anzahl an Kunden zu verbessern, suchte Genesys nach einem neuen ECM-System und ersetzte schließlich sein bestehendes Repository durch die Alfresco Plattform.
Ausschlaggebend für die erfolgreiche Implementation war, dass Alfresco große Datenmengen unterschiedlichster Interessengruppen organisieren und verwalten kann. Die Plattform unterstützt verschiedenste Anwendungsszenarien von mehreren tausend Genesys Mitarbeitern und Kunden über Länder und Kontinente hinweg. Die einfach einsetzbare Alfresco Plattform stellt die nötige Flexibilität …
… arvato Systems, CAS AG und IOT GmbH zusammengeschlossen, um Händlern Lösungen anzubieten, mit denen diese in der SAP CAR/CEI-Infrastruktur noch besser auf die veränderten Bedürfnisse des vernetzten Konsumenten reagieren können. Denn erst die Fähigkeit große Datenmengen in Echtzeit verarbeiten zu können, erlaubt kundenindividuelle Ansprachen und Angebote.
Kunden erwarten heute auf allen Kanälen und Endgeräten eine reichhaltige Produktauswahl sowie gezielte Informationen und Inhalte in Echtzeit. Die Zukunft des Handels heißt deshalb Omni-Channel. …
… somit die logische Konsequenz. Die Generation der Jahrtausendwende wird sich viel stärker mit Fragen zu ihren Aufgaben sowie Sinn und Zweck ihrer Arbeit beschäftigen als andere Generationen. Sie ist bereits in einer Zeit aufgewachsen, in der der Zugriff auf riesige Datenmengen ein Leichtes ist, und somit ist auch der Umgang mit großen Informationsmengen sowie der schnelle Wechsel zwischen mehreren Aufgaben einfacher für sie. Da in dieser Generation die Grenzen zwischen Privatleben und Arbeitsleben immer mehr verschwimmen, wird sie stärker nach der …
… reicht vom Materialeingang über die Instandhaltung von Anlagen und Werkzeugen bis hin zu den Versandaufträgen. Da das MES von ORBIS und die OMPS auch für den Betrieb auf der In-Memory-Plattform SAP HANA konzipiert sind, können selbst gewaltige Datenmengen pfeilschnell verarbeitet und analysiert werden.
Am SAP-Partnerstand stellen die Experten von ORBIS zudem ihre Beratungs- und Methodenkompetenz für die Business-Analytics-Lösungen von SAP sowie für das Portfolio der SAP-Cloud-Lösungen vor, insbesondere für SAP Cloud for Customer. Die cloudbasierte …
… übertragen.
Die Integration der beiden Werkzeuge ermöglicht es, kritische Mängel schnell und ohne manuellen Aufwand zu beheben. Zusätzlich ergibt sich häufig ein Kostenvorteil, da die Korrektur über die verwendete Dynamische Schnittstelle von OSPlus bei kleinen Datenmengen preiswerter als eine Massendatenänderung ist.
Mit der Prüfsoftware enfoxx von emagixx können Sparkassen ihre Datenqualität nachhaltig sichern. Über 950 praxiserprobte Prüfregeln zu Themen wie Legitimation, KUSY, MiFid, Kundenstamm etc. geben einen schnellen Überblick über den …
Unternehmen stehen immer größere Datenmengen zur Verfügung. Jede Transaktion, sei es beim Shoppen, Surfen oder Simsen, übermittelt Daten. Doch wem nützen diese riesigen Datenmengen (Big Data), wenn sie nicht analysiert, ausgewertet und dargestellt werden können? Firmen, die das Potential von Big Data erkennen und nutzen, können die Qualität ihrer Produkte steigern, die Herstellung effizienter gestalten oder auch völlig neue Produkte und Dienstleistungen entwickeln. Vielen Unternehmen fehlen jedoch die Kompetenzen, die zum Aufbau von Big-Data-Know-how …
… die Möglichkeiten der Industrie 4.0 frühzeitig zu erschließen.
Eine effiziente und leistungsfähige ERP-Plattform ist für die Umsetzung von Industrie 4.0 Themen ebenso wichtig, wie die Vernetzung von Maschinen, die Anbindung mobiler Geräte, die Analyse großer Datenmengen in Echtzeit, der Aufbau von leistungsfähigen Prognosemodellen oder Cloud Computing. Die Zukunft liegt folglich in der Verschmelzung von IT-Systemen und wertschöpfenden Anlagen. Weltmarktführer SAP bietet Unternehmenssoftware, auf deren Grundlage die Anforderungen der Industrie 4.0 …
… dass Abläufe mit niedriger Priorität nicht die Prozesse mit höherer Priorität beeinträchtigen. Dies könnte dazu beitragen, dass viele Nachtschichten für DBAs entfallen können, z. B. für die Durchführung umfangreicher Batch-Prozesse wie die Verarbeitung großer Datenmengen oder Wartungsarbeiten, die während der Geschäftszeiten die Geschäftstransaktionen verlangsamen können. Solche Verarbeitungen können jetzt verstärkt auch tagsüber ablaufen, ohne dass sich die DBAs Sorgen um die Performance machen müssen.
• Verbesserte Kompatibilität mit Oracle: EDB …
… (16.–20. März 2015) am SAP-Partnerstand C04 in Halle 4 sein Lösungs-, Service- und Beratungsportfolio im SAP-Umfeld. In den Mittelpunkt des diesjährigen Messeauftritts stellt der SAP-Dienstleister aus Plattling folgende Themen: die Analyse sehr großer Datenmengen (Big Data) aus produktionsnahen Systemen mit SAP HANA, die intuitive Bedienung von SAP-Software mit SAP-Fiori-Apps sowie die Produktkostenkalkulation mit dem PLC-Cockpit (Product Lifecycle Costing). Anhand interessanter Praxisbeispiele wird aufgezeigt, welcher geschäftliche Mehrwert mit …
… internen für die Informationstechnologie zuständigen Abteilungen gemacht. Hier bieten die Frankfurter Experten eine Alternative: Man lagert die Marketing- und Vertriebsinformationen auf Systeme der M&L AG aus.
Die gefragte Expertise der M&L ist, die immer größer werdenden Datenmengen aus verschiedenen Quellen – seien es Filialen, Internet oder Geomarketing – zielorientiert und vertrieblich verwertbar für die Führungskräfte aufzubereiten und damit die Basis für den künftigen Vertriebserfolg zu legen. Die Vertriebsleitung kann damit zum Beispiel …
… Köln ist KHD ein weltweit operierendes Unternehmen mit weiteren Standorten in Indien, China, Brasilien und den USA. Das Unternehmen ist global führender Anbieter von Ausrüstungen und Dienstleistungen für Zementanlagen. Da KHD sein Geschäft weltweit ausgeweitet hat, wuchsen die Datenmengen und die Anforderungen an die IT-Infrastruktur.
Als Kosten und Komplexität wuchsen, wandte sich KHD auf der Suche nach einer Lösung an die Orbit, Tochter der T-Systems International und führendes Unternehmen im Bereich IT-, Beratung und Dienstleistung und zugleich …
… Ausfallzeiten in der Firmen-IT zu informieren. Zusammen mit Veeam, einem der führenden Hersteller für Datensicherungslösungen, wurden mittels Live-Demos und Praxisbeispielen Lösungswege aufgezeigt, um die Wiederherstellungszeiten von Anwendungen zu minimieren und den rasanten Anstieg von Datenmengen effizient zu verwalten. Rege ausgetauscht haben sich die Teilnehmer bereits während den Beispielen am Live-Szenario, womit auch den Vortragenden wertvolles Feedback für kommende Systemversionen mitgegeben werden konnte.
Für die IT bei FEHA zeichnet …
… Maßstäbe gesetzt. Mit seinem Dienst Street View hat der Konzern eindrucksvoll demonstriert, wozu ein entsprechend ausgerüstetes Fahrzeug heute in der Lage ist. Die technischen Fähigkeiten sind bemerkenswert und schließen eine hochauflösende Videoüberwachung in 360°, eine mobile Speicherung der hohen Datenmengen und drahtlose Anbindung an lokale und globale Netzwerke ein. Zusätzlich erfasst das sogenannte Google Car mittels Laservermessung die Abstände in einem Umkreis von 50 Metern und die genaue Position über GPS. Bis Mitte 2012 wurde so von der …
… Medienunternehmen sowie Film- und Fernsehproduktionen. Mit SoftLayer adressiert Sohonet die Herausforderung, sehr große digitale Mediendateien in der Produktions- und Postproduktions-Pipeline zu handhaben: Durch die Bereitstellung skalierbarer Cloud-Computing-Umgebungen lassen sich auch extrem große Datenmengen verwalten und speichern.
Obwohl das Rendern von Filmen schon immer sehr rechenintensiv war, wird es für Medienunternehmen im Hinblick auf den gestiegenen Umfang der Studio-Filmproduktionen und auf die Fähigkeit, mehrere Projekte gleichzeitig …
… implementiert werden. „Big Data ist für unsere ERP-Berater kein Neuland, und die Prozesse wie auch Reports laufen in SAP HANA in Sekundenbruchteilen ab“, weiß Holger Behrens aus Erfahrung mit der SAP HANA-Testengines im eigenen Haus. Besonders die Auswertung von großen Datenmengen sei mittels In-Memory um ein Vielfaches schneller. Dabei erfolgt die Aufbereitung und Analyse der Daten, die zum Beispiel aus dem ERP oder einem Business Warehouse (BW) stammen, über die verschiedenen Möglichkeiten von Business Objects. Die Branchenspezialisten von cormeta haben …
… Analyseberichte zur Verfügung, um operationelle Exzellenz zu erreichen."
Quality AnalytiX® ist einsatzfähig von der kleinsten Applikation bis hin zu der umfangreichsten Unternehmens-Operation. Mithilfe der Hyper-Historian™-Technologie, sammelt Quality AnalytiX® rapide riesige Datenmengen und bietet somit eine globale Übersicht über die Produktqualität auch über multiple, geografisch voneinander entfernte, Produktionsstätten hinaus. Umfangreiche SPC/SQC Dashboards und Berichte werden jedem Web-Browser, Tablet, Telefon oder Smart Device zur Verfügung …
… außergewöhnlich hohen Datenmenge, mit der UBIMET täglich konfrontiert wird, ist auch eine schnelle Durchführung von Backups essentiell:
„Datensicherung ist ein wesentlicher Bestandteil jeder IT-Strategie“, so Kahn und ergänzt, „NetApp bietet uns die Möglichkeit, sehr große Datenmengen in kurzer Zeit zu sichern.“
Zusätzlich setzt der Wetterdienstleister stark auf das dateibasierende Protokoll NFS (Network File System), da damit in einer komplexen Mehrbenutzer-Betriebssystem-Umgebung, wie Linux, überall auf Dateien zugegriffen werden kann.
„Kurz gesagt, …
… an ACER
Bretten, 4. Februar 2015-
Mit der Verordnung über die Integrität und Transparenz des Energiegroßhandelsmarktes (REMIT) soll die Erhöhung von Transparenz und Stabilität der europäischen Energiemärkte gewährleistet werden. Unternehmen stehen vor der Herausforderung, große Datenmengen aufzubereiten und an die mit der Überwachung und Regulierung der Energiemärkte gemäß REMIT betraute EU-Behörde ACER (europäische Agentur für die Zusammenarbeit der Energieregulatoren) zu übermitteln.
Sofern die Meldung der Daten über einen RRM-Dienstleister …
… von DDoS-Angriffen. Allein im dritten Quartal 2014 hat Akamai auf seiner Intelligent Platform 17 Angriffe mit einer Stärke von mehr als 100 GBit/s bekämpft; der größte brachte es auf 321 GBit/s. Jeder dieser Mega-Angriffe nutzte mehrere DDoS-Vektoren und riesige Datenmengen, die gleichzeitig aus verschiedenen Richtungen auf eine Webseite trafen.
Rund um die Themen Datensicherheit und Performance im Web sind vier Trends für 2015 von Bedeutung:
1. Die Zahl und Intensität der Cyber-Angriffe erreicht neue Rekordwerte.
Die intensiven Attacken im …
„AGATA – Analyse großer Datenmengen in Verarbeitungsprozessen“, unter diesem Namen fördert das Bundesministerium für Bildung und Forschung (BMBF) mit über 2,2 Millionen Euro ein Projekt von 7 Partnern aus Forschung und Wirtschaft, darunter auch das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI). Unter Konsortialführung des Fraunhofer IOSB-INA werden in AGATA Technologien entwickelt, um die komplexe Datenflut von Verarbeitungsprozessen in Industrie und Landwirtschaft besser wirtschaftlich zu nutzen.
Die Menge an Daten und Informationen …
… die University of Illinois, die Technische Universität Dortmund und die University of Pittsburgh. Sie gehören zu den über 3000 Universitäten, welche die "Modern Analytics"-Plattform verwenden.
"Die Studenten in meinen Veranstaltungen verwenden gerne RapidMiner, um große Datenmengen aus der Astrophysik zu analysieren. Sie werden in erstaunlich kurzer Zeit zu Daten-Experten", betonte Dr. Wolfgang Rhode, Professor an der TU Dortmund.
Besondere Vorzüge des Programms
RapidMiner weiß um die Herausforderungen, denen akademische Führungskräfte heute gegenüberstehen, …
… Ablageorten, Intransparenz und lückenhafte Archive sind die Folge. „Eine unsystematische Archivierung stellt unter rechtlichen Gesichtspunkten ein erhebliches Risiko dar und macht das Handling der Daten extrem aufwändig“, warnt Dr. Thomas Kretzberg, Vorstand der Networkers AG. „Stetig wachsende Datenmengen – Stichwort Big Data – und steigende Anforderungen an die Compliance setzen die Unternehmen zudem zusätzlich unter Druck, ihre Daten sicher und effizient zu archivieren. Dafür bedarf es aber einer einheitlichen Lösung, die die Prozesse automatisiert …
… Ablageorten, Intransparenz und lückenhafte Archive sind die Folge. "Eine unsystematische Archivierung stellt unter rechtlichen Gesichtspunkten ein erhebliches Risiko dar und macht das Handling der Daten extrem aufwändig", warnt Dr. Thomas Kretzberg, Vorstand der Networkers AG. "Stetig wachsende Datenmengen - Stichwort Big Data - und steigende Anforderungen an die Compliance setzen die Unternehmen zudem zusätzlich unter Druck, ihre Daten sicher und effizient zu archivieren. Dafür bedarf es aber einer einheitlichen Lösung, die die Prozesse automatisiert …
… Platz und 2000 Euro belohnt. Im Rahmen ihrer Masterarbeit mit dem Thema „A Semantic Approach to Supporting Users in the Selection of Visualizations in Business Intelligence Environments“ hat Frau Stefani sich mit der Visualisierung großer Datenmengen auseinandergesetzt, deren Darstel-lungsform in hohem Maße zur effizienten Analyse von Daten beiträgt. Die von Prof. Dr. Kristian Fischer im Verbundstudiengang Wirtschaftsinformatik betreute Arbeit liefert auf wissenschaftlich sehr hohem Niveau eine Architektur zur Methodenauswahl für unter-schiedliche …
… Analytics verbindet, können Big-Data-Szenarien schnell und ausbaufähig umgesetzt werden. Dieses Angebot ist so einzigartig im Markt“, sagt Tobias Nittel, Director SAP Business bei SAS Deutschland.
„Für viele Unternehmen wird es immer wichtiger, sehr große Datenmengen zeitnah zu analysieren, um rasch auf neue Anforderungen reagieren zu können und schnellere Entscheidungsprozesse in wettbewerbsintensiven Branchen wie Banken, Versicherungen, Telekommunikation oder Handel umzusetzen“, erläutert Jens Peter Gotter, SAP Business Development & Alliance …
… Zugang zum Internet gewährt werden.“
Ein hochsicheres, drahtloses Netzwerk in der Arena und auf den Tribünen sowie die dem Media-Portal zugrunde liegende ENTIRETEC CLT – Core Layer Technology® ermöglichen auch bei höchsten Userdichten die Übertragung immenser Datenmengen in Echtzeit. Die Einbindung von Live-Streams verschiedener Kameraaufnahmen, Läuferverfolgung, Second Screen Szenarien, Social Media, Ticketing, Apps oder Mobile Advertisement ist problemlos möglich.
Nicht nur Fans und VIP-Gäste profitieren. Das Media-Portal ist zudem Basis für eine …
… --
Kurz vor Weihnachten überrascht CAMTEX mit der Ankündigung eines neuen CADdoctor-Zwischenreleases. Die Software konvertiert viele CAD-Formate und erzeugt per integrierter Datenreparatur perfekte 3D-Modelle in kürzester Zeit.
Schnelle Weiterverarbeitung dank vereinfachter Geometrie
Zu große Datenmengen sind für viele Konstrukteure Alltag. Häufig liegt das an für den Anwendungsfall überflüssiger Geometrie, die 3D-Modelle unnötig aufbläht. Abhilfe schafft die Geometrievereinfachung – eine der beliebtesten CADdoctor-Funktionen. Sie erleichtert die …
… für den Datentransfer wurden durch die Einführung des Streaming-Verfahrens drastisch reduziert. Außerdem komprimiert ein intelligenter Mechanismus die Rohdaten vor der Übertragung ohne Informationsverlust. Zusätzlich sind durch den optimalen Einsatz der 64Bit-Technologie auch extrem große Datenmengen kein Problem mehr. Neben der nahezu unmittelbaren Darstellung der Daten im Trend- oder Kennlinien-Diagramm profitiert vor allem das Exportwerkzeug von diesen Neuentwicklungen. Die Möglichkeit, Exporte in den neusten MDF-Formaten (3.0 und 4.1) zu erstellen, …
… bildet die Grundlage für die Kommunikation von Mitarbeitern, Kunden, Lieferanten und Partnern sowie PCs, Servern und Maschinen. Es muss sich immer anspruchsvolleren Herausforderungen stellen, wie z. B. Echtzeit-Anwendungen und der kontinuierlichen Erhöhung der zu transportierenden Datenmengen.
Entspricht das Netzwerk noch den aktuellen Anforderungen? Das Netzwerk wächst mit einem Unternehmen. Die Veränderungen, die im Laufe der Zeit auftreten, wirken sich auf Netzwerk-Performance und Sicherheit aus. Ein Netzwerk erfolgreich zu verwalten, wird immer …
… Referenzgeschichte steht auf der Splunk Website zur Verfügung.
„Mit Splunk können wir ohne großen Aufwand die Daten unterschiedlicher Systeme auf einer Instanz erfassen und erforschen. Diese Flexibilität gepaart mit einer hohen Leistungsfähigkeit selbst bei enormen Datenmengen ist eine wichtige Voraussetzung, um die Sicherheit zu erhöhen und Arbeitsprozesse effizient zu gestalten“, erklärt Egon Grünter, Mitarbeiter des Jülich Supercomputing Centre.
Mit Splunk konnten die Mitarbeiter des Bereichs Security und Netzwerk sowohl die mean-time-to-investigate …
… sowie Rechenzentren besser mit steigenden Datentransferraten umgehen. Dies gelingt durch weltweit einzigartige 96x2,5“ HDDs in nur 4U, eine 12 Gb/s SAS-Architektur und bis zu sechs SSDs als Cache.
„BigFoot Storage XXCold“ bietet mit 384 TB die Möglichkeit, enorme Datenmengen auszulagern, die nicht täglich benötigt werden. Das System schaltet sich automatisch zeitgesteuert ab, ist aber bei Bedarf in kürzester Zeit wieder verfügbar. Inklusive dem integrierten Lüftermanagement senken sich die Stromkosten um bis zu 75 Prozent.
Bladesystem „Tormenta“ …
… für Traditionsanbieter mit langjährigen, gewachsenen Strukturen. Zuvorderst sollte es darum gehen, mehr Transparenz zu erlangen.
Dazu Oliver Hach: „Um zukunftssichere Entscheidungen zu treffen, muss das gesamte Management genau wissen, wo das Unternehmen steht. Dank der heute vorliegenden Datenmengen und mit Hilfe eines innovativen BI-Dashboards haben es die Handelsunternehmen selbst in der Hand, zur Data Driven Company zu werden. Wer die heutigen Steuerungsmöglichkeiten aktiv nutzt, wird zukünftig Antreiber und nicht Getriebener der Branche.“
… Daten in Echtzeit über Umweltbedingungen, den Ressourceneinsatz in Gebäuden oder zu Transport- und Fußgängerbewegungen in der Umgebung. Unabhängig von der Art der Informationen befinden sich diese Geräte und Sensoren typischerweise nicht in Büros und generieren große Datenmengen. Drahtlose Verbindungen sind deshalb für diese Art von Daten keine Option. Die IE200-Serie wurde von Allied Telesis für den Einsatz in kritischen Infrastrukturanwendungen und Umgebungen entwickelt, in denen eine zuverlässige und multifunktionale Lösung erforderlich ist. Sie …
… Datenstrukturen werden durch das Setzen von Attributen gekoppelt. Die automatische Aktualisierung der Daten wird ebenfalls über Attribute gesteuert.
Zusammen mit dem Datenmodell wurden auch neue Datentypen für Listen- und Matrixstrukturen eingeführt. Damit lassen sich große Datenmengen effizient verarbeiten. Beispielsweise können Listenobjekte und Tabellen mit einer einzigen Zuweisung gefüllt werden.
Mit dem neuen Objekt Datetime ist eine komfortable Eingabe von Datums- und Zeitwerten möglich und das neue Listview-Objekt bietet eine erweiterte Listenansicht …
Big Data ist das Thema der Stunde. In der digitalen Wirtschaft hat sich Big Data zu einem wichtigen Wertschöpfungsfaktor entwickelt, den kaum ein Unternehmen noch ausser Acht lassen kann. Doch die Erfassung und Verarbeitung von großen Datenmengen unterliegt, insbesondere im kommerziellen Umfeld, einer Reihe gesetzlicher Vorschriften. Die renommierte Kanzlei Bird&Bird hat gemeinsam mit artegic die eBook Checkliste 23 Fragen zu Big Data und Recht erstellt, die Unternehmen dabei hilft, rechtliche Fallstricke im Umgang mit Big Data zu vermeiden.
Welche …
Berlin, 02.12.2014. Mit dem Assecor Migration Studio (AMS) bietet die Assecor GmbH eine effiziente und sichere Lösung für die automatische Migration großer Datenmengen. Das Cloud-basierte AMS verringert aufgrund seiner flexiblen Einsatzmöglichkeiten und der einfachen Drag-&-Drop-Bedienung den Aufwand der Datenmigration. Damit erfüllt Assecor kundespezifische Anforderungen an eine unkomplizierte und schnelle Datenmigration, die höchsten Sicherheitsstandards entspricht.
Viele Unternehmen stellt die Übernahme großer Datenmengen von einem Altsystem …
… Connect" bei SpaceNet
Einfaches und effizientes Backup der Daten bei einem zuverlässigen IT-Serviceprovider in Deutschland
Integration in die Veeam-Backup-Konsole
Optimales Preis-Leistungsverhältnis: Es fallen nur die Kosten für die jeweils genutzten Datenmengen und virtuellen Maschinen an
Vollständige Kontrolle über die Datensicherung
Moderne Backup-Architektur
Sicheres Backup durch Ende-zu-Ende-Verschlüsselung
Keine zusätzlichen Hardware- und Lizenzkosten
ISO-27001-zertifizierte Rechenzentren in Deutschland
SpaceNets …