… aggregiert und in semantischen Kontext eingeordnet werden, was ein intelligentes Informations- und Wissensmanagement begünstigt. Des Weiteren tragen in das ERP integrierte BI-Tools maßgeblich zu einer effizienten Unternehmenssteuerung bei, indem sie große Datenmengen schnell verarbeiten und Entscheidungsprozesse mittels gezielter Ad-hoc-Analysen sowie Prognosen effektiv unterstützen. Ein „smartes“ und mobiles Arbeiten mit ERP-Software in Echtzeit beschleunigt letzten Endes die Reaktionsgeschwindigkeit der Unternehmen und verbessert ihre Aussagefähigkeit …
… GmbH gemeinsam mit IBM auf der CeBIT den Mittelstandstag veranstalten. Dabei legen beide Unternehmen den Schwerpunkt auf das Thema Cognitive Computing. Für die Kunden der Unternehmen ergibt sich durch die einfachen Analysetools die Möglichkeit, aus großen Datenmengen unter Berücksichtigung komplexer Zusammenhänge nachhaltige Prognosen zu stellen. Die Nutzer können diese Vorhersagen als Grundlage für fundierte Entscheidungen verwenden. Die Veranstaltung findet am 14.03.2016 zwischen 10:30 und 13:00 Uhr in Halle 2 statt.
Der IBM Treffpunkt Mittelstand …
… bieten. Als Haupthindernis wurde genannt, dass die verwendeten Legacy-Systeme die entsprechenden Daten – vor allem von neueren Devices – nicht verarbeiten können. 85 Prozent dieser Unternehmen gaben an, dass es Probleme bei der Verarbeitung sehr großer Datenmengen gebe. Bezeichnenderweise meinten diese Befragten auch, dass das größte Hindernis für Personalisierung der Mangel an ausreichend qualifizierten Kundendaten sei.
"Gerade vor dem Hintergrund der neuen Player, die in den Finanzsektor drängen, sind personalisierte Services unerlässlich", erklärt …
… Deduplikationsraten von 15:1 bis zu 30:1 mit einem flexiblen, All-inclusive-Lizenzmodell bieten die Dell DR Appliances mehr Leistung zu niedrigeren Kosten als vergleichbare Lösungen.
Freemium-Angebot für Schutz und Recovery von Windows-Clients
Zum Schutz der wachsenden Datenmengen, die Endgeräte generieren, stellt Dell Data Protection | Endpoint Recovery – Free Edition eine schlanke, einfach zu bedienende Software-Lösung zur Verfügung, für Windows-Clients einen robusten Endpoint-Schutz und eine Recovery-Lösung. Als kostenlose Set-and-Forget-Lösung …
… zeigt unsere Stärke als spezialisierter Berater im Bereich der Digitalisierungstechnologien“, so Lüdemann. Insgesamt wurden Preise in sechs verschiedenen Rubriken verliehen.
Splunk gilt als Anbieter der weltweit führende Plattform für „Operational Intelligence“ und bietet Lösungen zur Auswertung riesiger Datenmengen. Das Unternehmen hat es sich zur Aufgabe gemacht, weltweit hochqualifizierte Partner zu finden, um seine Lösungen maßgeschneidert für Endkunden nutzbar zu machen. Lüdemann und sein Team sind bereits seit drei Jahren Partner von Splunk.
Der Wilcon Data DWH Builder ist eine leicht verständliche und selbsterklärende Softwarelösung zur Verwaltung großer Datenmengen aus unterschiedlichen Quellen.
Die Daten können schnell eingelesen werden, wobei das Tool flexibel auf unterschiedliche Anforderungen reagiert. Die Datasource ist frei konfigurierbar, Datasource-Austausch ist ohne Komplikationen möglich.
Für die Datenabbildung ist keinerlei Programmieraufwand nötig. Wiederkehrende Aufgaben werden durch den DWH Builder ohne Wartungsaufwand gelöst: Abstimmungsprozesse im Unternehmnen werden …
… erreicht ist, ist das sicherlich ein Argument.
Bau Dir Dein eigenes Haus, live bei uns im Shop?
So ist zumindestens die Idee dahinter, aber das Konzept lässt vermuten, dass an dieser Stelle noch längst nicht Schluss ist. Viele Unternehmen haben heute schon Schwierigkeiten mit großen Datenmengen umzugehen. Die kommende Datenflut - auch bekannt als Big Data - aus dem Internet der Dinge, haben viele Unternehmen noch gar nicht berücksichtigt. Wer schon jetzt auf maximale Dynamik seiner Daten setzt, erspart sich jede Menge Zeit und damit Geld, wenn die …
… physikalischem Speicher. Mit diesem “Kunstgriff” lässt sich der Hauptspeicher eines INtime-Prozesses je nach Gesamtspeichergröße auf bis zu 4 Gigabyte allokieren. Damit sind auf INtime-Rechnern beispielsweise umfangreiche Datalogging-Applikationen realisierbar, die in Echtzeit große Datenmengen in kürzester Zeit erfassen und zwischenspeichern müssen.
Darüber hinaus stehen weitere Demos zu Themen wie der Skriptsprache Lua mit Echtzeitunterstützung, der C-basierten Motion-Programmierung im Zusammenspiel mit dem EtherCAT Soft-Master von KPA und ISG …
… vollständig dokumentierte API lassen sich bestehende Systeme einfach verknüpfen und anbinden. So kann man beispielsweise ein Abrechnungssystem oder eine ERP-Lösung direkt an die IoT-Plattform anbinden.
• Kapazität: Da in einer IoT-Lösung immer enorme Datenmengen anfallen, sollte eine IoT-Plattform keine Kapazitätsgrenze für Massendaten kennen; dabei dürfen große Datenmengen auch nicht zu einem Verlust notwendiger Eigenschaften führen, beispielsweise zur Reduzierung der Geschwindigkeit.
• Ausfallsicherheit: Eine IoT-Plattform muss ausfallsicher …
… seinem neu eingerichteten Data Insight Lab seinen Kunden sowohl die komplette Soft- und Hardware-Infrastruktur zur Verfügung, als auch Experten für Business Analysis, Data Science und Data Architecture. Sie zeigen, wie Unternehmen einen Mehrwert aus der Strukturierung und Analyse ihrer Datenmengen ziehen können. Dabei immer im Blick: die Vorgaben des IT-Sicherheitsgesetzes.
Zu finden ist der Gemeinschaftsstand der Lufthansa Industry Solutions und Robotron auf der 16. E-world 2016, vom 16. bis 18. Februar, in der Halle 3, Stand 3-248, des Essener …
… entwickelt, um anhand von Patentdaten die Position eines Unternehmens im Hinblick auf ihre Digitalisierungspotenziale zu bestimmen«, erklärt Patentexperte Le. Dieser »Patent-Digitalisierungsindex« liefert wertvollen Input für Entscheidungsträger in Unternehmen. »Durch die Auswertung großer Datenmengen können Entscheidungsträger nicht nur interne Prozesse messen, sondern auch mehr über externe Wettbewerbskräfte, wie direkte Wettbewerber, erfahren und mit diesen Einblicken bessere strategische Entscheidungen treffen«, sagt Le. So stecke in Patentdokumenten …
… Hypothesen zutreffen oder nicht.
> Hierfür mussten wahrscheinlich vermehrt Analysen durchgeführt werden. Wie habt Ihr das gemacht? Wurden Datenbanken, Excel oder Analysetools verwendet?
Wir haben mit eigenen, aber auch mit existierenden, führenden Analyse-Tools für große Datenmengen gearbeitet.
> Du leitest den E-Commerce-Bereich der Firma Lynx-Consulting GmbH aus Bielefeld. Kannst Du mit Deinem Team solche Dienstleistungen auch Unternehmen anbieten?
Auf jeden Fall. Wenn wir zunächst bei der Analyse von großen Datenmengen bleiben, hilft …
… Kohls.
Auf dem zweiten Platz wurde Raphaela Butz mit einem Preisgeld von 1.500 Euro ausgezeichnet. Die Absolventin befasste sich in ihrer Abschlussarbeit mit der Frage, wie eine solide Vertrauensbasis in medizinischen Anwendungen geschaffen werden kann, damit große Datenmengen, z. B. von Untersuchungsergebnissen oder bildgebenden Verfahren, in der Praxis besser zusammengeführt und ausgewertet werden können. Prof. Dr. Kristian Fischer und Prof. Dr. Stefan Karsch haben diese Arbeit betreut.
Als Drittplatzierter erhielt Igor Altach ein Preisgeld in …
Berlin, 22. Dezember 2015 — Die Analyse industrieller Sensordaten birgt in Zeiten von Industrie 4.0 großes Potential. Durch die Vernetzung von Anlagen und Prozessen entstehen riesige Datenmengen, die wertvolle Informationen zur Steuerung und Überwachung der Produktion enthalten. Um zeitnah auf Veränderungen in der Produktion und am Markt zu reagieren, müssen diese der Planungs- und Managementebene zur Verfügung gestellt werden. Während ERP-Daten in Unternehmen bereits seit vielen Jahren in unterschiedlichen Konstellationen, wie etwa in Form von Umsatz- …
… stärkt die Akzeptanz bei den Nutzern.“ Das zeigt auch das Nutzerverhalten im Bereich Cloud-Computing: Laut einer aktuellen Bitkom-Studie setzen mittlerweile 44 Prozent der Unternehmen in Deutschland Cloud-Computing ein.
„Cloud-Computing ermöglicht technische und ökonomisch attraktive Lösungen für große Datenmengen“, fasst der Unternehmer zusammen. „Mehr als 1.000 Kunden und über 7.000 Benutzer – das ist für uns Ansporn, bestehenden und neuen Kunden mit unserem Cloud-System weiterhin einen hilfreichen und effizienten Service zu bieten und die Funktionalität …
… hierbei das Thema Sharing von IT-Systemen und Datenlösungen.
Für kleinere Unternehmen sind laut der Münchner Digitalisierungsexperten besonders die mit Big Data und deren Analyse verbundenen Kosten ein großes Hindernis auf dem Weg zu mehr Digitalisierung: Um die großen Datenmengen analysieren und nutzen zu können, braucht es entsprechende Technik und Know-how. Und um die gesammelten Daten wiederum nutzbringend für das eigene Kerngeschäft auszuwerten, ist zusätzlich eine entsprechende Business Intelligence Software nötig. Denn nur so lassen sich …
IDC-Studie: Analyse papierbasierter Prozesse durch Monitoring ist Ausgangspunkt für Digitalisierung – Kostenloser Download auf dem Themenportal talking-future.de von TA Triumph-Adler
Norderstedt, 09. Dezember 2015. Automatisiert, rund um die Uhr funktionstüchtig, sicher, effizient und ressourcenschonend – dies sind die Anforderungen an ein modernes Outputmanagement in Unternehmen und Organisationen. Was Monitoring-Tools heute und in Zukunft leisten sollten, zeigt die Analyst Connection „Best Practises und Trends im Fleet Management“, die das…
… Reservierungen zentral und automatisch mit emMida gesteuert und auf Locafox gelistet werden. Auch umfangreiche Sortimente lassen sich ganz einfach darstellen und verwalten.
„Die manuelle Eingabe von Artikeln im Marktplatz-Backend gehört mit emMida der Vergangenheit an. Unsere skalierbare Plattform für die Verwaltung und Pflege von großen Datenmengen bildet das richtige Fundament für die Verknüpfung vielfältiger Verkaufskanäle. Dabei passt sich emMida an die individuellen Bedürfnisse des Händlers an“, erläutert Sandro Kunz, Geschäftsführer bei Speed4Trade.
… der Freiheit, der vielen Europäern kaum vorstellbar war. Übertroffen wird dieser Terror durch Angriffe im Sekundentakt auf die Informationen und Daten jeden Bürgers oder Unternehmens an Telefon und Mobilfunk sowie im Netz. Kein Wunder, gelten doch große Datenmengen, Big Data, als Währung der Zukunft. Mit den richtigen Algorithmen lassen sich aus ihnen vielfältige Erkenntnisse über Kunden, Märkte und Wettbewerber gewinnen. Wer die richtigen Muster erkennt, kann bestehende Produkte und Geschäftsprozesse optimieren und sich Wettbewerbsvorteile sichern. …
… als Client-Server-Architektur mit REST-Service unter Microsoft.NET 4.5. entwickelt. Die Client-Programme sind mit benutzerfreundlichen WPF-Oberflächen ausgestattet und unterstützen die Anwender bei komplexen Sachverhalten mit intuitiv zu bedienenden Assistenzfunktionen. Der Server ist eine Multicore-Anwendung zur hochperformanten Verarbeitung von großen Datenmengen. Die Datenhaltung erfolgt über XML-Dateien.
Weitere Informationen sind auf der Produktwebseite www.tracerunner.de oder direkt beim Hersteller, der SSA SoftSolutions GmbH, erhältlich.
… Ergebnisse ausliefert und Fragestellungen der User aktiv beantworten kann. Durch den Einsatz einer semantischen Suchlösung können Kontextinformation besser zugänglich und das Textverständnis erhöht werden. Dokumente werden automatisch klassifiziert. Vor allem bei komplexen Datenmengen und unstrukturierten Daten werden dadurch exaktere Suchergebnisse geliefert. Dies ist der Grundstein für ein fortgeschrittenes Informationsmanagement. Durch die Verknüpfung der GSA mit der Technologie conceptSearching erhalten Unternehmen eine hocheffektive und intelligente …
… HDMI-2.0-Anschluss des Philips 241P6VPJKEB verbinden, um mobile Inhalte auf dem großen Display zu betrachten und gleichzeitig den Akku des Gadgets aufzuladen. Der integrierte USB 3.0-Hub ermöglicht aufgrund einer Übertragungsrate von 5,0 Gbit/s schnelle Transfers auch großer Datenmengen. Mit einem der Anschlüsse ist auch besonders schnelles Aufladen mobiler USB-Geräte möglich. Mithilfe der eingebauten Webcam und des integrierten Mikrofons können Anwender noch effizienter kommunizieren und zusammenarbeiten.
Der neue Philips 241P6VPJKEB wird noch im November 2015 …
… All-Flash-Storage-Bereich klein starten, granular wachsen und im Laufe der Zeit nahtlos skalieren.
2. Unterbrechungsfreier Betrieb
Die Skalierung von Storage-Kapazität oder Performance, das heißt der I/O-Leistung, muss unterbrechungsfrei erfolgen können, um auch bei steigenden Datenmengen oder komplexeren Workloads eine durchgängig konstante Leistungsfähigkeit des Systems sicherzustellen.
3. Hoher Automatisierungsgrad
Nach wie vor erfolgt bei vielen Service-Providern die Storage-Provisionierung ganz oder teilweise manuell. Der dafür erforderliche Zeitaufwand liegt …
… Einsatz der Lösung sowohl in lokalen als auch in hybriden, cloudbasierten oder gehosteten Exchange-Umgebungen. Dank der parallelen Ausführung von Instanzen ermöglicht ‚ELOxc’ ein exzellentes Lastverhalten sowie einen hohen Datendurchsatz auch bei sehr großen Datenmengen.
Daraus resultiert eine schnelle Entlastung des E-Mail-Servers, was dem Anwender durch bessere Antwortzeiten zugutekommt. Zudem lassen sich Kosteneinsparungen generieren, da teurer Datenbankspeicher durch preiswerten Archiv-Speicher ersetzt werden kann. Durch die Anbindung des Exchange …
… die das Management bei der Unternehmenssteuerung unterstützen sollen. Im Standard von caniasERP verfügbare Pivot-Tabellen und Pivot-Charts dienen zur gewünschten systematischen und gleichzeitig einfachen Auswertung wichtiger Daten. Mit diesen Instrumenten können große Datenmengen benutzerindividuell und mit nur wenigen Klicks auf aussagekräftige Größen reduziert, überschaubar visualisiert sowie analysiert werden. Darüber hinaus ist geplant, mobile Datenerfassungsgeräte (MDEs) wie etwa Barcodescanner einzusetzen. Damit lassen sich Bestandsbuchungen …
… bei kommerziellen Anwendungen in allen Forschungs- und Entwicklungsbereichen auch in Privatunternehmen künftig durchaus verstärkt in Betracht gezogen werden könnte.“
Der Scale-Out-Trend zeigt sich auch im Storage-Bereich durch die Verwendung von parallelen Filesystemen. Rechenergebnisse mit Datenmengen im Terabyte-Bereich sind im High Performance Computing keine Seltenheit. Die Herausforderung dabei ist weniger die Datenablage, als vielmehr der Transfer großer Datenmengen, das heißt die Aufrechterhaltung der Performance beim notwendigen „Hin- und …
Anspruchsvolle Anwendungen der Machine-Vision und der Videoüberwachung basieren auf der Aufnahme, Übertragung, Auswertung und Speicherung von Videodaten. Aktuelle Videosysteme arbeiten mit Megapixel-Kameras, die große Datenmengen in das System schleusen. Dieses Datenaufkommen erfordert naturgemäß eine hohe Bandbreite, höchste Prozessorleistung sowie große Sicherheit und Flexibilität bei der Speicherverwaltung. Speziell an diesen Anforderungen ausgerichtet ist der neue industrielle Vision-Controller Nuvis-3304af von Acceed (acceed.de/nuvis-3304af).
Als …
… der transtec AG in Reutlingen. „Doch auch mittelständische Unternehmen können sich diesem Trend nicht verschließen. In der heutigen von hohem Wettbewerbsdruck geprägten Zeit wird es immer wichtiger, schnell die richtigen Entscheidungen zu treffen; Vernetzung und Analyse großer Datenmengen sind dabei essenziell. An Industrie 4.0 führt somit kein Weg vorbei.“
transtec hat deshalb sein Dienstleistungsangebot auch in Richtung Industrie 4.0 erweitert. Das Unternehmen bietet ab sofort eine umfassende Unterstützung bei der Planung, dem Aufbau und Betrieb …
In diesem Vortrag von Alexander Reelsen ging es um die kleinen Details, die Elasticsearch bei Volltextsuchen und Analytics so schnell machen – trotz massiver Datenmengen.
Nach einer kurzen Einfuührung ist er auf unterschiedlichste technische Details im Bereich der Suche eingegangen, damit Anwender moglichst effiziente Suchen verwenden konnen:
• Skalierung von Elasticsearch, sowohl der Nodes als auch der Daten
• Eine kurze Erklärung, wie sowohl Suchen als auch Aggregation innerhalb des Clusters ausgefuhrt werden
• Verwendung von probabilistischen …
… berücksichtigen.
Kundenorientierung ist für jedes Unternehmen eine Selbstverständlichkeit. Heute aber muss der Kunde noch stärker als je zuvor im Mittelpunkt stehen, denn er wird in einer digitalen, globalen Welt von immer mehr Anbietern umworben. Zahlreiche Unternehmen verfügen in der Zwischenzeit über große Datenmengen über ihre Kunden und der Kunde wiederum wird von allen Seiten mit einer Datenflut überrollt. Um in dieser Situation die Aufmerksamkeit des einzelnen Kunden zu gewinnen, ist es wichtig, sein Verhalten und seine Vorlieben genau zu kennen und ihn mit …
… ihre Wettbewerbsfähigkeit in Zeiten von Big Data und Industrie 4.0 zu sichern, müssen Unternehmen ihre Daten und Prozesse so effizient und so dynamisch wie möglich organisieren und analysieren.
Um auch Lösungen für die Analyse sehr großer und komplexer Datenmengen anbieten zu können, erweitert das Leipziger Unternehmen seine Technologieplattform eccenca Linked Data Suite (eLDS). Mit der Plattform eLDS können sogenannte Knowledge Graphs erzeugt, integriert und verwaltet werden. Eine Technologie, die vor allem für Lösungen zur Datenvirtualisierung …
… Vorteile für Objekt-basierte, große Storage-Anwendungen, bei denen HDDs immer noch einen Kosten-pro-Gigabyte-Vorteil gegenüber Flash-Lösungen bieten und bei denen die Performance ebenfalls keine entscheidende Rolle spielt.
• Statische Daten
Swift eignet sich für umfangreiche statische Datenmengen, bei denen sequenzielle Lese- und Schreibzugriffe erfolgen und eine niedrige IOPS ausreichend ist.
Die Anwendungsszenarien und Vorteile der Block-Speicherung Cinder im Überblick:
• Storage für VM-Volumes auf einem Host
Mit Cinder erfolgt das Erstellen, …
… der Empfangs- und Netzwerktechnik, bringt jetzt eine Produktreihe auf den Markt, die schnelle und sehr stabile Datenübertragung für jedermann verspricht.
Mit bis zu 1 Gbit/s Übertragungsgeschwindigkeit über 50 m können Nutzer jederzeit in jedem Raum online gehen und hohe Datenmengen empfangen oder verschicken, stabil und ohne Verzögerungen beim Datenversand. Möglich wird das über sogenannte POF-Kabel. Dabei steht POF für „Polymere optische Faser“: Die Fuba WebFiber Adapter wandeln das Ethernet-Signal eines Routers in ein optisches Signal um und …
… an.
4M – was „Machine-to-Machine“, „Man-to-Man“, „Machine-to-Man“ und „Mobile“ bedeutet – ist das wichtigste Merkmal des M-IKT-Zeitalters geworden, und das Internet der Dinge (Internet of Things, IoT) führt zu einem rasanten Anstieg der Datenmengen. Mit seinen hochwertigen Diensten für Telekommunikationsnetze, Cloud-basierten Big Data-Plattformen und innovativen IoT-Initiativen unterstützt ZTE dieses neue Zeitalter mit seiner Strategie „Enabler@M-ICT, Create Value through Information“.
Ziel der M-IKT-Strategie ist eine gewinnbringende Nutzung des …
… den neuen Wettbewerb „Connect What Matters“ (www.dellconnectwhatmatters.com). Der Wettbewerb richtet sich an Unternehmen; Deadline für die Einreichung von Lösungen ist der 31. März 2016.
Zitate
Andy Rhodes, Executive Director Commercial IoT Solutions bei Dell:
„Die ungeheuren Datenmengen und die hohe Komplexität, die durch die große Anzahl von Sensoren, eingebetteten Systemen und verbundenen Geräten in Netzwerken hervorgerufen werden, haben dazu geführt, dass Unternehmen zunehmend Schwierigkeiten haben, die richtigen Entscheidungen zu treffen. …
… und dem Internet der Dinge ermöglicht neue digitale Geschäftsmodelle“, erklärt Jeanine Banks, Executive Vice President, Global Products and Solutions, Axway. „Die Lösung und Expertise unserer „Analytics for Industries“-Initiative unterstützen Unternehmen dabei, riesige Datenmengen in sinnvolle, echtzeitbasierte und nützliche Informationen zu verwandeln. So können unsere Kunden ihre Geschäfte weiter vorantreiben.“
Gartner zählt Axway in seinem „Market Guide for Operational Intelligence Platforms“ zu den „representative vendors”.
¹Gartner Inc., „Market …
… die Genanalyse abgeben.
Teamarbeit bei höchster Datensicherheit
Mit regibox können die Mitarbeiter der verschiedenen Krankenhäuser Dokumente und Dateien vertraulich (Daten sind Ende-zu-Ende verschlüsselt) austauschen und Teamarbeit bei höchster Datensicherheit durchführen. Über den Cloud-Dienst lassen sich zudem große Datenmengen verwalten und effizient organisieren. Files mit genomischen Daten sind oft größer als 1 GB und eignen sich nicht für den Versand mit verschlüsselter E-Mail. Mike Bone, Interim ICT Director bei GOSH, sagt: „Wir haben uns …
… MAM- und Content Management System von Noxum dient als zentrales Zuliefersystem für Katalogdruck, elektronische Kataloge und die Produktwebsites (SharePoint). Es ist das Instrument für die Massendatenpflege und die Verarbeitung und Veredelung großer Datenmengen in der täglichen Praxis. Hier werden auch komplexe Produktbeziehungen dargestellt.
Die unternehmensweite Zusammenarbeit von Marketing, Service, über 22 Landesgesellschaften und 61 Importpartnern, Händlern und Außendienstmitarbeitern wird unterstützt: Ein wichtiges Instrument hierfür ist der …
… 0,8 mm ist die Mutica SR42W001 ideal zur Nutzung in kleinen Geräten geeignet, wozu auch das Gewicht von unter 0,5 g beiträgt. Die Antenne unterstützt den neuen Wi-Fi 802.11ac Standard mit 5 GHz, was eine hohe Geschwindigkeit bei großen Datenmengen sowie gleichzeitige Verbindungen bei niedrigem Batterieverbrauch ermöglicht. Eine vollständige Abwärtskompatibilität für den 2,4 GHz Standard Wi-Fi 802.11n ist ebenso gegeben.
Die für den erweiterten Temperaturbereich von -40°C bis +125°C ausgelegte SMT-fähige Antenne ist auch ideal für den Einsatz in …
… Fabrik-Anwendungen, Dienstprogrammoperationen in extremen Klimazonen und anderen intensiven Umgebungen.
Darüber hinaus sind die SD-Karten und microSD-Karten von SanDisk® leicht zu entfernen und austauschbar. Dies gibt Anwendern die nötige Flexibilität, um große Datenmengen schnell zu laden oder zu aktualisieren und ermöglicht eine einfache Wartung sowie Konfiguration.
Verlässliche Leistung durch Flash-Speicher-Technologie von SanDisk®
SanDisks® durchgängige vertikale Integration ermöglicht eine umfassende Qualitätskontrolle, von der Herstellung der …
… ersten Vortrag hielt Daniel Grohé, Vertriebsbeauftragter der Ernst & Lackner Consulting GmbH. Er schilderte die kreative Intelligenz der Menschen – trotz Hochtechnisierung kommt es in der Praxis häufig zur Überforderung in der Verwaltung großer Datenmengen. Die Anwender suchen sich einfachere Wege, um ihre Arbeit zu erledigen. Grohé erläuterte anhand konkreter Praxisbeispiele und Livedemonstrationen, wie ungehindertes Arbeiten bei zeitgleich hoher Sicherheit in Unternehmen gewährleistet wird.
Maciej Golik, technischer Vertriebsmitarbeiter der …
… um die Bedeutung dieser Innovation:
"Die Nachfrage nach zuverlässigen Archivmedienlösungen ist groß. Mit der neuen M-DISC Blu-ray BDXL mit 100GB Speicherkapazität ergeben sich völlig neue und einzigartige Möglichkeiten zur sicheren und dauerhaften Archivierung von großen Datenmengen.
Wir sind deshalb besonders stolz darauf, dass wir als erster Distributor das neue M-DISC Blu-ray BDXL Format in den europäischen Markt einführen.
Dadurch ergeben sich auch für Reseller neue Vermarktungsansätze, sowohl im professionellen B2B Umfeld zur Archivierung …
… von Beta Systems steht bereit unter: http://www.betasystems-dci.de/
Über Beta Systems Data Center Intelligence
Beta Systems entwickelt seit über 30 Jahren hochwertige Infrastruktur-Softwareprodukte für die sichere und effiziente Verarbeitung großer Datenmengen zur bestmöglichen Erfüllung aller rechtlichen und geschäftlichen Anforderungen. Die Multiplattform-Softwarelösungen für z/OS-, Unix-, Linux- und Windows-Umgebungen automatisieren, dokumentieren und analysieren geschäftstragende IT-Abläufe in Rechenzentren von Großunternehmen, IT-Dienstleistern, …
… zu verzehnfacht.
Vorteile für die Kunden
"Mit dem kostenfreien Anheben der Leistungen ermöglicht EUserv den mittelfristigen unterbrechungsfreien Weiterbetrieb des virtuellen Servers. Ohne daß der Kunde etwas tun muss, meistert sein vServer die ständig wachsenden Datenmengen und Leistungsanforderungen nun automatisch besser.", teilt Technikchef Ronny Bösger mit. Die Erweiterungen wurden bereits Anfang des Monats für alle Bestandskunden automatisch freigeschaltet. Neukunden bekommen diese ebenso bereitgestellt.
Über die vServer bei EUserv
Die aktuellen …
… Management. Bereits die Analyse von AD-Daten, stellt Datenverantwortliche in großen Unternehmen, mit mehreren hundert oder tausend Mitarbeitern, vor Herausforderungen. Das auf Active-Directory-Umgebungen spezialisierte Unternehmen FirstAttribute AG hat für die Analyse großer AD-Datenmengen den kostenfreien FirstWare-AD Inspector in der 2015er Version veröffentlicht.
Neuerungen in AD Inspector 2015
Mit dem aktuellen Release stellt die FirstAttribute AG Neuerungen im Design und Verbesserungen bei den Berichten vor. Active Directory Administratoren …
… Basissystem erlaubt. Wer einem Rennfahrer einen Kleinwagen anbietet, kann kaum auf die Ergebnisse eines Sportwagens hoffen – außer natürlich, dass der Fahrer auch mit dem Kleinwagen ins Ziel kommt. Das heißt, die Hardwareleistung und die Basissoftware muss stets für die Datenmengen, die zu bearbeiten sind, auch passend ausgelegt sein. Hier gilt es, gelegentlich das „Sizing“ zu überprüfen und dessen Auswirkung auf die Performance zu beachten. Und das gilt sicher nicht nur für die Maklersoftware GIN-AX, sondern auch für ander Maklerverwaltungssysteme.
Für …
… in Breakout-Sessions einen praxisorientierten Einblick in Anwendungsfälle zu bekommen“, erklärt Frank Wenzel, Sales Director TIBCO Analytics.
„Die TIBCO Fast Data Plattform schafft die Grundlage für das digitale Business von heute und ermöglicht es so, schnell großen Mehrwert aus riesigen Datenmengen zu ziehen“, erklärt Maurizio Canton, CTO EMEA bei TIBCO Software. „Wir freuen uns sehr Geschäftsführern und IT-Anwendern in Deutschland, den TIBCO Ansatz näher zu bringen und alle ihre Fragen rund um Integration, Event Processing und Analytics zu beantworten.“
Das …
… zur Basis vieler Geschäftsprozesse geworden ist. Dass Hardware alleine diesen Anforderungen nicht gerecht werden kann, erkennt man an Entwicklungen wie Cloud Computing, Big Data oder Collaboration.
Ständig steigender Platzbedarf bedingt durch konstant zunehmende Datenmengen führt zu einem Umdenken. Gefordert sind Lösungen, die mehr Performance, ständige Verfügbarkeit, schnelle Zugriffszeiten sowie geringe Energiekosten bieten. Die Zeiten der riesigen Hardware-Racks gehören der Vergangenheit an.
Unternehmen wünschen sich elastische IT-Strukturen, …
Bremen, September 2015. Ein neuer Müllberg wächst heran. Er stinkt nicht und ist nahezu unsichtbar, verursacht aber viele Probleme für Unternehmen. Die Rede ist von riesigen analogen Datenmengen. Deren Aufbewahrung und Lagerung ist gesetzlich geregelt, die Aufbewahrungspflicht in Deutschland liegt in der Regel zwischen sechs und zehn Jahren. Einige große und kleine Unternehmen setzen daher auf professionelles Aktenmanagement, wie es das Bremer Unternehmen Smart-Store bundesweit anbietet. Daten werden extern archiviert oder gescannt und stehen auf …