… und die optimistische, die meint, dass Technologie die größten sozialen Probleme lösen kann. Diese unterschiedlichen Standpunkte könnten Veränderungen behindern und es Unternehmen erschweren, sich auf die Zukunft vorzubereiten."
Angesichts dieser umfassenden Veränderungen – beschleunigt durch exponentiell wachsende Datenmengen und neue technische Möglichkeiten, diese zu nutzen – glauben 56% der Befragten, dass es auch ein Umdenken in der Bildung braucht: Schulen sollten lehren, wie und nicht was man lernt, um Schüler auf Berufe vorzubereiten, die …
… End-to-End-Lösung für eine effizientere Nutzung von Energie und die Steigerung der Produktionseffizienz für Arbeitsprozesse an relevanten Standorten.
Die Lösung zur Energie- und Produktionsoptimierung vereint die Fähigkeiten der SAP HANA® Plattform zur Verarbeitung großer Datenmengen, die analytische Intelligenz und Integrationsfähigkeit der INTENSE EES Software-Suite und das hohe Leistungsvermögen der Dell EMC Infrastruktur in Hinsicht auf Datenerfassung und -verarbeitung sowie Analyse und Maßnahmenidentifikation.
ZUSAMMEN NOCH BESSER: DELL EMC, INTENSE …
… (KI) und maschinelles Lernen (ML) unterstützen Mitarbeiter dabei, besser fundierte Entscheidungen zu treffen. KI und ML können Menschen nicht ersetzen, aber sie sind in der Lage, spezielle Aufgaben zu übernehmen, wie Anomalien oder Muster in großen Datenmengen zu entdecken, und bewirken damit eine Entlastung der Mitarbeiter. Kombiniert miteinander können Predictive Analytics und KI sowie ML ihre Leistungskraft bei der Auswertung großer Datenmengen in kurzer Zeit optimal entfalten und Handlungsempfehlungen entwickeln.
4. Datenmonetarisierung gewinnt …
… ist. Aus Datenschutzgründen sollten dann allerdings starke Passwörter zum Einsatz kommen.
Des Weiteren lässt sich über integrierte Backup-Routinen eine automatisierte Datensicherung einrichten. NAS erreichen hohe Übertragungsgeschwindigkeiten, sodass eine Sicherungskopie selbst bei großen Datenmengen relativ schnell angelegt ist. Über das dafür benötigte Speichervolumen verfügen Geräte, die bis zu zwölf Datenträger aufnehmen können. Einen zusätzlichen Schutz gegen Datenverluste bieten RAID-Systeme, die je nach Konfiguration eine redundante Datenspeicherung …
… auf den drohenden Fachkräftemangel im Bereich Mainframes.
Zitat
Rupert Lehner, SVP Enterprise Platform Services EMEIA bei Fujitsu
"Leistung, Zuverlässigkeit und Effizienz sind die Markenzeichen von Mainframe-Systemen. Mainframes sind zentrale High-End-Komponenten von IT-Infrastrukturen, die große Datenmengen in Echtzeit verarbeiten. Unternehmen werden sich auch in Zukunft auf ihre zuverlässige Leistungserbringung und konstante Systemverfügbarkeit verlassen. Die Verbesserungen der BS2000 SE Infrastruktur stellen sicher, dass unsere Kunden über die …
… anderen um PRIMEFLEX for SAP Landscapes-Lösungen powered by FlexFrame Orchestrator Management Software1. Beide sind von SAP zertifiziert und ermöglichen sowohl eine einfache Implementierung als auch einen reibungslosen, effizienten Betrieb von SAP-Infrastrukturen zur Verarbeitung großer Datenmengen. Die Neuprodukte stehen für eine entscheidende Reduzierung von Komplexität und Kosten sowohl bei der Installation als auch danach, sodass die Nutzer ohne Abstriche von der Flexibilität, der Sicherheit sowie allen anderen Potenzialen einer skalierbaren …
… die einen bestimmten Schwellwert überschreiten, an das CRM-System übergeben. Außerdem lässt sich der Informationsstand der Interessenten bewerten, damit der Vertrieb gezielt übernehmen kann.
5. Performante Echtzeitverarbeitung leisten. Die CEM-Lösung muss in der Lage sein, große Datenmengen performant zu verarbeiten – und das idealerweise in Echtzeit. Interessenten, deren Scoring durch ihr aktuelles Klickverhalten den definierten Schwellwert überschreitet, werden dann ohne Verzug an das CRM-System übergeben. Dadurch verliert der Vertrieb keine wertvolle …
… kostengünstige Lösungen für diese und andere Anwendungsfälle zur Verfügung stellen. Auch für Endprüfungen in der Produktion vor allem von pneumatischen, hydraulischen und elektrischen Komponenten, wo es auf kurze Durchlaufzeiten und die Handhabung großer Datenmengen ankommt, bietet das Unternehmen vielfältige Lösungen an.
Im Technischen Datenmanagement reicht das Spektrum der von müller+krahmer angebotenen Lösungen von Einzelanwendungen für die mathematische und graphische Datenanalyse (interaktiv, teil- und vollautomatisiert) sowie die Datenhaltung …
… So können Fehler eng eingegrenzt werden, so dass Hersteller bei größeren Störungen nicht gleich komplette Serien zurückrufen müssen, sondern sich auf bestimmte Chargen beschränken können.
• Big Data
Die effiziente Verarbeitung und Analyse sehr großer Datenmengen wird für die industrielle Produktion immer wichtiger. Die mittlerweile in fast allen Betrieben hochvernetzte Produktion generiert riesige Datenmengen, die in Echtzeit aufgenommen und verarbeitet werden müssen. Eine vollständige Maschinendatenauswertung bietet die Möglichkeit, während eines …
… Intelligenz) hat einen bislang beispiellosen Grad an Genauigkeit erreicht. Deep Learning Algorithmen haben die menschliche Leistung beim Klassifizieren von Daten und dem Entdecken von reproduzierbaren Mustern weit übertroffen.
Die Anwendung von Software gestütztem Data Mining ist aufgrund der großen Datenmengen sowie der sehr komplexen Berechnungen für viele Unternehmen in den Focus gerückt. Hiermit ist die Analyse von Big Data gemeint. Big Data (Große Datenmengen) fallen heute in fast jedem Unternehmen an, da kein Unternehmen mehr ohne die Nutzung …
… Maintec Data Recovery zu jedem im Aktionszeitraum erteilten Rettungsauftrag eine kostenlose Festplatte hinzu. Dabei handelt es sich um ein Markenfabrikat in Größen von mindestens 1 TB bis maximal 3 TB Größe. Entscheidend ist die Verfügbarkeit ab Lager.
Wachsende Datenmengen bei privaten Anwendern
Für das Jahr 2018 sind die Spezialisten von Maintec Data Recovery (https://datenrettung.net) bestens gerüstet. Mit einem reichen Erfahrungsschatz von 21 Jahren als deutsches Datenrettungslabor zählt man das Unternehmen zu den führenden Anbietern. Auch in …
… werden. Die 14mm dünnen BASICS-Produkte, die mit Speicherkapazitäten von 500GB, 1TB oder 2TB erhältlich sind, besitzen ein minimalistisches Design mit einer matten Oberfläche.
„Toshiba ist immer bestrebt, Kunden mit besseren Lösungen für die Verwaltung der steigenden Datenmengen zu unterstützen, und zwar mit der Entwicklung kompakterer Produkte mit hoher Speicherkapazität“, erklärt Noriaki Katakura, General Manager HDD Business Unit, Toshiba Electronics Europe GmbH. „Mit der Konzeption von Storage-Lösungen mit größerer Speicherdichte haben wir einen …
… und können so einzeln abgefragt und überwacht werden. Anwender erhalten mit Alloy eine zukunftsorientierte Lösung für ihr gesamtes Infrastruktur-Management.
Alloy ist eine cloudbasierte Plattform, die als Service betrieben wird und auch sehr große Datenmengen problemlos verarbeitet. Anwender müssen auf den eigenen Systemen keine Software installieren. Sie sparen dadurch Kosten für IT-Infrastruktur und Service. Alloy bietet eine ansprechende, kartenzentrierte Oberfläche, die auf Yottas visualisiertem Asset-Management-System Horizons aufbaut. Alloy …
Das beliebteste Datenbanksystem anschaulich erklärt
Bad Kreuznach, 27.12.2017 – Die Katholische Erwachsenenbildung bietet im Januar Einsteigerkurse für Microsoft Access an zwei Terminen.
Größere Datenmengen verwalten, Wiederholungen bei Dateneingabe und –pflege vermeiden, nur bestimmten Personen bestimmte Nutzungsrechte zuteilen – und das zuverlässiger als mit Excel. Verschiedenste Anwender, wie bspw. Vereine, sowie kleine und mittelständische Betriebe können vom Datenbanksystem Access profitieren und mit seiner Hilfe eigene Datenbankanwendungen …
… gehalten, verschwenden sie hier Ressourcen hinsichtlich Speicherkapazität und Energie. Ein modernes Datenmanagement mit Objektspeicher und einer optischen Langzeitarchivlösung schaffen hier Freiräume.
Die ewige Spirale - Je größer und günstiger Festplatten werden, desto schneller wachsen die Datenmengen an, die wir auf Ihnen speichern müssen. Zwar lassen sich Festplatten-Speichersysteme virtuell bis ins nahezu unendliche erweitern, jedoch stößt man doch irgendwann auf physikalische Grenzen, sei es der Platz im Rechenzentrum, die Leistung der Klimaanlage …
… Informationen meist überall verstreut sind. Kapow ermöglicht dem Nutzer innerhalb kurzer Zeit intelligente und leistungsfähige Software-Roboter zu erstellen, die Aufgaben automatisieren, welche sonst von den Mitarbeitern erledigt werden müssen. Dadurch können Unternehmen schnell große Datenmengen, egal ob strukturiert oder unstrukturiert, aus externen Quellen sammeln und somit Front- und Backoffice-Prozesse automatisieren. Die Robots unterstützen die gängigen Plattformen - wie Mainframe, Windows, Java und Internet - in einer Vielzahl von Schnittstellen …
… eingesetzt wird.
Auch die Analysten von Crisp Research sehen diesen Trend: Bis 2020 wird die Mehrheit der Unternehmen Machine-Learning-Verfahren im Einsatz haben. Die maschinelle Verarbeitung von Sprache wird immer wichtiger. Selbstlernende Systeme, die komplexe Datenmengen in Echtzeit verarbeiten, gewinnen ebenfalls an Bedeutung. Crisp Research spricht in diesem Zusammenhang von einer „Cognitive Company“: KI-basierte Systeme werden immer mehr Aufgaben übernehmen und ganze Abteilungen entlasten.
Enterprise Search profitiert von Artifical Intelligence …
… Workflow-Prozess-Transparenz mit Echtzeit-Austausch von Events und Dokumenten.
Neben der Blockchain-Unterstützung bietet iWay 8 neue Funktionen zur Integration von IoT und Big Data und stellt diese Informationen für Analysen bereit. Mit einer Datenmanagement-Technologie, die nativ große Datenmengen aus IoT erfasst, bereinigt, vereinheitlicht und integriert, sorgt iWay für qualitativ hochwertige Daten zum Einsatz in unternehmenskritischen Geschäftsprozessen. Weitere Funktionen von iWay 8 im Überblick:
• Intuitive Design Time: eine moderne und benutzerfreundliche …
… vereinfacht und die Entwicklung von Projekten für das industrielle Internet der Dinge beschleunigt. Der Hutschienen-PC wurde insbesondere für intelligente Anwendungen im Bereich der Energiewirtschaft und der Automatisierung konzipiert, die große Datenmengen sammeln und übertragen müssen.
Für intelligente Energie- und Automatisierungsanwendungen konzipiert
Das effiziente IoT-Gateway ICO120-83D von AXIOMTEK wird durch den Intel®-Celeron®-Prozessor N3350 angetrieben. Der Embedded-Field-Controller besitzt einen Steckplatz für ein DDR3L-1866-SO-DIMM mit …
… im Gesundheitswesen ein strategisch wichtiger Kooperationspartner sein. „Krankenhäuser, Gemeinschaftspraxen, medizinische Unternehmen aus der Forschung oder Ärztekammern begegnen aufgrund der Digitalisierung, der elektronischen Verwaltung von Daten und den ansteigenden Datenmengen zunehmend großen Herausforderungen“, erklärt Alfred Kuczera, Business Development Manager für Medizintechnik bei api. Eine innovative Server-Lösung wie der sanXaler® kann wesentlich dazu beitragen, informationsintensive Untersuchungs-, Behandlungs- und Verwaltungsvorgänge …
… das Informationsmanagement von Unternehmen mit vorwiegend digitalen Geschäftsmodellen. Die Lösung sichert die Betriebskontinuität und verfügt mit einer Kapazität von bis zu 48 TB über die erforderlichen Kapazitäten zum Umgang mit großen geschäftskritischen Datenmengen. Sie vereint robuste Fujitsu Hardware mit branchenführender Data Management Software von Commvault in einer einzigen integrierten Backup-Einheit. Diese schützt sensible Daten über Geschaftsanwendungen sowie virtualisierte, konvergente und hyperkonvergente Infrastrukturen hinweg. Dank …
… Unternehmen profitieren von der Erfahrung von Dell EMC und seinem Ecosystem an Technologiepartnern, wie sie die Lösungen bestmöglich nutzen können;
• maximieren Effizienz, Sicherheit und Kontrolle: Unternehmen sind damit in der Lage, die Kosten für die Verlagerung großer Datenmengen in Hybrid-Cloud-Umgebungen zu reduzieren, gleichzeitig Risiken zu minimieren und die Datenkontrolle zu maximieren.
Mit den Dell EMC Ready Bundles für maschinelles Lernen und Deep Learning (1) profitieren Kunden von der Einführung des neuen HPC-Servers PowerEdge C4140, der …
… optimieren und bei annähernd gleichen Kosten zu betreiben wie bei einer Massenproduktion. Die INTELLIEDGE Edge Computing Appliance wird über eine Management-Konsole gesteuert, die in der eigenen IT-Umgebung, ausgeführt werden kann. Die Lösung verwaltet die Erfassung und Steuerung von riesigen Datenmengen, die von Anlagen in OT-Umgebungen wie zum Beispiel in der Produktion, bei der Stromerzeugung sowie in der Öl- und Gasindustrie generiert werden.
INTELLIEDGE steuert den Datenfluss von lokalen Anlagen in die Cloud, oft über Verbindungen mit geringer …
… Netzwerken generierten Daten zentralisiert erfassen, bewerten und visualisieren - und ihre Prozesse und Services passgenau modellieren können. Darüber hinaus steht Controlware Kunden bei der Auswahl zeitgemäßer Big-Data-Lösungen zur Seite, mit denen sich die steigenden Datenmengen managen und nutzen lassen. Dabei müssen die Werkzeuge optimal auf die Größe, Anforderungen und das generierte Datenvolumen des jeweiligen Unternehmens abgestimmt werden: Während in mittelständischen Unternehmen typischerweise einfaches Handling und hohe Usability gefragt …
… Datenmanagement und eine beeindruckende Erfolgsbilanz bei der Bereitstellung von Lösungen, mit denen sich Markt-, Referenz- und Preisdaten aus den verschiedensten Quellen verarbeiten lassen. Die neue Markt- und Referenzdaten-Plattform auf Basis von DSE ist in der Lage, immense Datenmengen in Echtzeit zu bewältigen und diese Geschäftsanwendern aus dem Finanzsektor bereitzustellen, ohne dabei die IT-Infrastruktur über Gebühr zu belasten.
Mit DSE werden Asset Control Kunden – darunter so renommierte Namen aus der Finanzwelt wie ING, Standard Chartered, …
… Angebots von TIBCO. Die Überprüfung der Daten vor, während und nach dem Rennen in Echtzeit ermöglicht es dem Team, Entscheidungen im Moment zu treffen, anstatt Zeit durch die Verarbeitung von Ergebnissen zu verlieren.
„Wir arbeiten ständig mit riesigen Datenmengen, die in Echtzeit verarbeitet werden müssen. Daher benötigen wir robuste Technologie, um diesen Prozess zu unterstützen ", führt Matt Harris, Leiter der IT-Abteilung bei Mercedes-AMG Petronas Motorsport, aus. „Unsere Partnerschaft mit TIBCO hilft uns, unser Datenmanagement zu überdenken …
… außerdem bei der Evaluierung von Big-Data-Technologien. In einem Proof of Concept (PoC) wurde die Möglichkeit untersucht, die Daten von Wettervorhersagen in einer SAP-Hana-Datenbank zu speichern. Anlass für den PoC waren die prognostizierten Steigerungen der Datenmengen, die von heutigen Großrechnern produziert werden können, und die hieraus resultierenden IT-technischen Herausforderungen für ein zukünftiges Datenmanagement im DWD. SAP Hana ist eine junge und hochmoderne Hauptspeicherdatenbank-Technologie. Sie verspricht bahnbrechende Leistungen in der …
Das beliebteste Datenbanksystem anschaulich erklärt
Bad Kreuznach, 27.10.2017 – Die Katholische Erwachsenenbildung bietet Einsteigerkurse für Microsoft Access an verschiedenen Terminen an.
Größere Datenmengen verwalten, Wiederholungen bei Dateneingabe und –pflege vermeiden, nur bestimmten Personen bestimmte Nutzungsrechte zuteilen – und das zuverlässiger als mit Excel. Verschiedenste Anwender, wie bspw. Vereine, sowie kleine und mittelständische Betriebe können vom Datenbanksystem Access profitieren und mit seiner Hilfe eigene Datenbankanwendungen …
… in Echtzeit verarbeitet.
Die Industrial Health Intelligence auf der MindSphere zeigt praktisch, wie neue Technologieplattformen den Weg zur Erweiterung der Wertschöpfungskette mit ganz neuen Möglichkeiten in der Industrie freigeben. Auf diese Weise können riesige Datenmengen schnell und effizient ausgewertet werden, um mögliche Incidents und Störungen in der Produktion direkt und vorausschauend aufzudecken. Ergebnis ist eine nie gekannte Transparenz, wodurch die Zusammenhänge von Schwachstellen automatisch auf Basis einer enormen Datenkomplexität …
… ermöglichen Kunden zusätzlich einen besonders schnellen Projektstart.
Höchste Leistung - in der Cloud & On-Premises
Der BI Survey 17 nennt auch Performance als ein wichtiges Differenzierungsmerkmal der Jedox-Plattform und bestätigt, dass Jedox die Anwenderzahl und Datenmengen seiner Kunden durchaus bewältigen kann: Im dritten Jahr in Folge gewinnt Jedox die Kategorie der "Performancezufriedenheit", wobei die schnelle Abfragegeschwindigkeit oft als Kriterium bei der Entscheidung für Jedox als integrierte Performance Management-Lösung genannt …
… leiden.
Rechenzentren und Cloud-Umgebungen erfassen die Daten unzähliger Sensoren und bringen auch selbst eine wahre Flut an Daten hervor. Mit rund 185 globalen IBX Rechenzentren stand Equinix vor gleich zwei Herausforderungen: der schwierigen Echtzeitbereitstellung massiver Datenmengen und der fehlenden Skalierbarkeit seiner bisherigen Datenlösung. Equinix sah das Problem als Chance und machte sich auf die Suche nach einem Partner, der über eine mitwachsende, vollfunktionale Datenplattform verfügen sollte, um operative Echtzeitdaten zu unternehmenskritischen …
… Forstwirtschaft sowie der Inneren Sicherheit.
Disy und Talend präsentierten neues ETL-Werkzeug für die Datenintegration
Raumbezogenes Datenmanagement erfordert neben Datenbanktechnologien und der Einbindung von Webdiensten auch Werkzeuge für die effiziente Integration, Verarbeitung und Analyse großer Datenmengen. Darum präsentierten Disy und Talend zusammen die neue Disy-Software "GeoSpatial Integration für Talend". Die von Disy entwickelte Software setzt auf das bewährte ETL-Tool Talend zur Verarbeitung von großen Datenmengen und erweitert dieses …
… eingesetzt, um sehr hohe Performance und Zuverlässigkeit aus preiswerter Hardware zu extrahieren. Dazu nutzt Infinidat den gleichen Festplattentyp mit ultrahoher Kapazität, der typischerweise von Google, Facebook und anderen Betreibern von Hyperscale-Cloud-Angeboten zur Speicherung großer Datenmengen eingesetzt wird. Infinidat hat Niederlassungen in 17 Ländern, ist mit zwei Hauptsitzen in Waltham (MA), USA, sowie Herzliya, Israel, vertreten und beschäftigt derzeit weltweit 500 Mitarbeiter.
„Wir freuen uns sehr über die Partnerschaft mit Infinidat“, …
… Umwandlung der Anhänge auf Basis der Reputation des Senders bzw. dem Level-of-Trust erfolgen kann. So können beispielsweise auch nur Anhänge von unbekannten Absendern konvertiert werden. Diese Funktion kann ebenso bei der Nutzung des Large-Files-Transfers zum Austausch großer Datenmengen angewandt werden und sorgt damit auch hier für mehr Sicherheit.
"Da CDR jeglichen aktiven Inhalt aus den Anhängen sicher entfernt, wirkt es auch gegen sogenannte Zero-Day-Schwachstellen, die von anderen Security-Techniken erst nach Verfügbarkeit eines Patches abgewehrt …
… mobiler Netzwerk-Debugger, mit dem Netzwerkadministratoren Fehler im Netzwerk binnen Minuten erkennen und lösen können. Neben dem Allegro 200 und 1000 für Büros beziehungsweise Bürogebäude steht mit dem Allegro 3000 nun ein Werkzeug für Rechenzentren mit großen Datenmengen bis hin zu 100-Gigabit-Ethernet-Netzen zur Verfügung.
Alle Varianten des Allegro Network Multimeter analysieren und korrelieren Netzwerkverkehr der Schichten 2 bis 7 in Echtzeit und der näheren Vergangenheit. "Wir orientieren uns an den neusten technischen Standards", erläutert …
… Kunde den Überblick verliert. Oder es handelt sich um Legacy-Systeme, die im Einsatz sind, sodass der Zugriff auf die Daten nicht optimal ist. Oder beides.
In allen diesen Fällen konnten wir bisher reagieren und mit unserer Expertise in Umgang mit großen Datenmengen und unterschiedlichen Formaten, als auch mit unserer Expertise in Systemarchitektur und Anwendungsbau helfen.
An dieser Stelle möchte ich mich im Namen des gesamten parsQube-Teams bei allen unseren Kunden, Partnern und Mitstreitern bedanken. Nach fünf Jahren parsQube gibt uns die stetig …
Ursachenforschung zu Datenverlusten in virtuellen Systemumgebungen durch Leipziger Datenretter RecoveryLab.
------------------------------
Vor allem bei größeren Unternehmen erfreut sich der Einsatz virtueller Systeme zunehmender Beliebtheit. Aufgrund großer Datenmengen und der Notwendigkeit leistungsstarker Rechnersysteme wird der klassische Server immer mehr von virtuellen Lösungen verdrängt. Auch gefährliche Schadsoftware kann ihnen kaum etwas anhaben. Dennoch können auch Virtualisierungen von einem Datencrash betroffen sein. RecoveryLab ( https://www.recoverylab.de …
Durch den Einsatz von SAP HANA und der damit verbundenen In-Memory-Verarbeitung lassen sich heute Datenmengen von vielen Terabytes in Sekunden analysieren. Zahlreiche neue betriebliche Anwendungen basieren darauf, die diese enorme Informationsdichte bewerkstelligen, aber auch eine angepasste Datenmodellierung mit zeitgemäßer und moderner Benutzerführung ermöglichen.
Mit BW 7.40 SP5 verlässt die SAP das alte SAP-GUI-basierte System und setzt für das Business Warehouse erstmals auf eine Eclipse-basierte Modellierung. Grundlage sind die BW Modeling …
… sich thematisch im Umfeld der Integration von Daten und Systemen sowie dem Erkenntnisgewinn aus Daten.
Unternehmen erweitern ihre visuelle Datenaufbereitung immer häufiger um eine maschinelle Exploration von Mustern in Daten. Bei den exponentiell wachsenden Datenmengen in Unternehmen wird die Erkennung solcher Muster zu einem strategischen Wettbewerbsvorteil oder gar Ausgangspunkt für die drastische Veränderung des Geschäftsmodells. RapidMiner bietet hierfür herausragende Möglichkeiten. Für QuinScape ist RapidMiner eine naheliegende Erweiterung …
… Cloud, damit ihre IT an Komplexität verliert und zugleich flexibler wird. Sie wollen zudem die Speicherkosten für Massen an sekundären Daten langfristig reduzieren, indem sie mehrere Cloud-Anbieter nutzen.
NetBackup Cloud Catalyst hilft Kunden nicht nur dabei, diese Datenmengen durch Deduplizierung zu schrumpfen, sondern dies auch in hoher Geschwindigkeit abzuwickeln - fast dreimal schneller als alternative Lösungen in der Branche. Wer Duplikate in den Daten erkennt und entfernt, kann belegten Speicherplatz freiräumen, ohne eine einzige Änderung …
… automatisch erstellten Empfehlungen von Shop-Plattformen. Dahinter verbergen sich komplexe Algorithmen, die auf früheren Käufen beziehungsweise auf dem Kaufverhalten vergleichbarer Kundengruppen aufbauen.
Die Einsatzmöglichkeiten von KI gehen nicht zuletzt aufgrund ständig wachsender Datenmengen aus Kundenbeziehungen und weiterentwickelter Analyseverfahren aber weit über solche Empfehlungen hinaus. Richtig eingesetzt können KI-gesteuerte Systeme die Interaktionen mit Kunden mitunter sogar besser führen als Mitarbeiter. Gerade einfache Servicefälle lassen …
… Datennutzung auf Smartphones.
Disy und Talend zeigen die Geodatenverarbeitung mit dem neuen Geo-ETL-Tool
Spatial Analytics und Location Intelligence erfordern neben Datenbanktechnologien und der Einbindung von Webdiensten auch Werkzeuge für die effiziente Integration, Verarbeitung und Analyse großer Datenmengen. Mit der neuen Disy-Software "GeoSpatial Integration für Talend" setzt Disy auf das bewährte ETL-Tool Talend zur Verarbeitung von großen Datenmengen und erweitert dieses um Geodaten. Damit ergänzt Disy sein Portfolio von GIS und Reporting …
… mit ihrem kosteneffizienten Design in der UHS (Ultra-High-Speed)-I-Kategorie an Mainstream-Kunden. Die microSD-M203-Karten bieten mobilen Anwendern hohe Transfergeschwindigkeiten und die Möglichkeit, ihre Smartphones um 256GB Speicher aufzurüsten. Nutzer können damit mehr Apps downloaden und große Datenmengen auf ihren Geräten mit sich führen, ohne dass sie sich Gedanken über Speicherbeschränkungen machen müssen. Dank der 3D-Flash-Speicherarchitektur von Toshiba (BiCS FLASH) bietet die Karte eine hohe Speicherkapazität.
Die microSD M203 ist in …
… ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
Das Steinbuch Centre for Computing (SCC) des KIT steht für weltweit sichtbare Forschung, Entwicklung und Innovation in den Bereichen des Hochleistungsrechnens (High Performance Computing, HPC), der Behandlung großer Datenmengen (Data Intensive Computing, DIC) und der sicheren IT-Föderationen. Das SCC offeriert ein breites Spektrum an verlässlichen IT-Services, die auf einer sicheren und hoch verfügbaren Infrastruktur basieren, und gestaltet maßgeblich die Entwicklung von ubiquitären, …
… verwendet wird.
„Unseren neuen SxS Pro Kartenleser haben wir im Hinblick auf zeitkritische Workflows in der Bildverarbeitung und Post-Produktion entwickelt”, sagt Robert Farnsworth, CEO von Sonnet Technologies. „Die Deadlines werden immer enger, die Shootings in 4K benötigen hohe Datenmengen und beim Übertragen der Daten zählt jede Minute. Mit unserer Lösung können Anwender die Aufnahmen von zwei SXS-Karten zeitgleich schnellstmöglich einlesen und sogar mit weiteren Lesegeräten, die per Daisy-Chaining angebunden werden, vier oder noch mehr Karten …
… Hardware unter strenger Einhaltung dieser global anerkannten Vorgaben, kommentierte John Feeney, COO bei Perle Systems. Immer mehr unserer maritimen Kunden nutzen die IoT-Navigation, -Kommunikation und -Systemwartung. All diese Anwendungen erfordern die Übertragung großer Datenmengen und deren Überwachung.
Perle bedient eine stetig wachsende Zahl von Seefahrtunternehmen, die ihre IoT-Hardware für die Gerätekonnektivität verwenden. Mullglen nutzt Medienkonverter von Perle, um EMI bei der Sondardatenübertragung zu entfernen. Aker Solutions nutzt Device …
… 80 Prozent der weltweiten Unternehmensdaten verarbeiten sowie mit circa 90 Prozent aller mobilen Applikationen interagieren. Mainframes haben sich über viele Jahrzehnte als die zuverlässigsten, stabilsten und effizientesten Lösungen erwiesen, mit denen sich große Datenmengen schnellstmöglich verarbeiten lassen. Das neueste Upgrade unseres Betriebssystems stellt sicher, dass die BS2000-SE-Infrastrukturen für alle Anforderungen, die mit dem digitalen Wandel einhergehen, bestens gewappnet sind. Wir investieren auch weiterhin stark in diese zukunftsorientierten …
… nutzen: Die meisten Sharing-Buttons sind JavaScript und bringen zusammengenommen recht viel Gewicht auf die Seite. Aber es gibt leichtgewichtige Alternativen wie sharingbuttons.io die für den Nutzer dieselben Funktionen erfüllen und dabei weniger HTTP-Requests und initiale Datenmengen benötigen. Daten nachladen müssen aber auch diese, spätestens bei einer Nutzer-Interaktion.
3. Experten fragen: Web-Entwicklung ist nicht gleich Web-Entwicklung, für alles gibt es Spezialisten, auch für Page Speed. Wer ein Problem mit langen Ladezeiten bekommt, sollte …
… Pipeline, bei der die Schweißnähte untersucht und auf andere Schwachstellen im Detail geprüft werden, indem während der Bewegung des Roboters eine Virtual Reality (VR)-Umgebung vom Inneren der Pipeline erstellt wird. Dies wird durch die Übertragung von großen Datenmengen von Kameras, Lasern und Sonarsensoren über ein 1.000 m langes Koxialkabel ermöglicht, das am Roboter angebracht ist. Da Ethernet-Datenübertragungen jedoch auf 100 m begrenzt sind, müssen Ethernet Extender eingesetzt werden.
Nach Labortests der Ausrüstung verschiedener Hersteller wählte …