… Verarbeitungsprozesse und Materialeigenschaften mit Detact erläutert Thomas Gläßer, Projektleiter am Fraunhofer IMWS: „Eine Inline-Qualitätssicherung von in Großserien hergestellten Sandwichbauteilen ist sehr anspruchsvoll, denn die spezielle Anlagentechnik erfordert das Erfassen und Auswerten von großen Datenmengen aus unterschiedlichsten Ausgabegeräten in einem eng definierten Zeitfenster. Durch den Einsatz von KI wird es möglich, bereits bei geringen Abweichungen der Bauteilqualität im Serienbetrieb gegen zu steuern. Daher wird das Fraunhofer-Team die …
… anderen Software-Produkten, wie LabVIEW und TwinCAT und verbinden dabei die Vorteile der verschiedenen Plattformen zu optimalen Lösungen.
Von diesen Erfahrungen können Sie profitieren. Wir zeigen Ihnen, wie Sie mit DIAdem effektiv Excel ersetzen, wenn es darum geht, große Datenmengen schnell aufzubereiten. Basierend auf Dutzenden von uns erstellten DataPlugIns machen wir Sie fit darin, Ihre heterogenen Altdaten in eine einheitliche Struktur zu bringen und für vergleichende Auswertungen verfügbar zu machen. Gemeinsam mit Ihnen erarbeiten wir den …
… PGY-UFS3.0-PA:
• Unterstützt die Versionen MPHY 3.1/4.1, UniPRO 1.61/1.8 und UFS Version 2.1/3.1
• Unterstützt PWM G1 bis G7 und HS G1,2,3,4 A und B-Serie
• Unterstützt ein oder zwei Datenleitungen (2 TX und 2 RX)
• Erfassung sehr großer Datenmengen durch kontinuierliches Streaming der Protokolldaten auf den Host-Computer
• Die „Solder-down active probe“ liefert eine hohe Signaltreue
• Dekodierung auf MPHY-, UniPRO- und UFS-Ebene
• Trigger basierend auf MPHY-, UniPRO- und UFS-Layer-Paketinhalten
• Unterstützt das Triggern auf PWM- und HS-Datenratengeschwindigkeiten
• Das …
… (CPU), Beschleunigung (GPU, FPGA), Speicher (RAM: flüchtig und nichtflüchtig), SSD Datenspeicher und I/O. Darüber hinaus basiert der Prototyp auf einer Netzwerkinfrastruktur zur Unterstützung von modernen Hochleistungsberechnungen und Simulationen (HPC), Datenanalysen von großen Datenmengen und Anwendungen im Bereich der Künstlichen Intelligenz (KI). Das System benutzt außerdem die innovative ColdCon® Heißwasser-Direktkühltechnologie von MEGWARE zur Steigerung der Energieeffizienz und Nachhaltigkeit und unterstützt damit die EU European Green Deal …
… und linear adressierbare Speicher ermöglicht das direkte Ausführen des Codes (Execute in Place, XiP). NOR wird in der Regel als Nur-Lese-Speicher (Read Only Memory, ROM), als PROM (Programmable ROM) oder EPROM (Erasable PROM) verwendet, da er größere Datenmengen nur langsam schreiben oder löschen kann. Darüber hinaus sind NOR-Zellen bei gleicher Strukturgröße größer als NAND-Zellen, weshalb NOR-Speicher nur für relativ kleine Speicherkapazitäten erhältlich ist. Hinzu kommt eine recht hohe Leistungsaufnahme.
Die weltweit ersten NAND-Flash mit x8-Octal-Schnittstelle …
… des Arbeitsortes. Dank Wi-Fi 6 erzielen Anwender jederzeit hohe Geschwindigkeiten bei der Datenübertragung und sind nicht auf tendenziell unsichere WLAN-Hotspots angewiesen. Zwei USB-Typ-C™-Ports mit Thunderbolt™ 3 Technologie erlauben den schnellen Transfer von großen Datenmengen. Über optional erhältliche externe USB-Typ-C™ oder Thunderbolt™ 3 Docking-Lösungen aus dem Portfolio von dynabook lassen sich weitere Peripheriegeräte mit den Portégé X-Modellen verbinden. Nutzer, die häufig zwischen Schreibtisch und mobilen Arbeitsplatz wechseln, schließen …
… zu erzielen. Oft wird ein erheblicher Effekt schon durch simple Maßnahmen erreicht – Verzicht auf Papierformulare, maschinenlesbare Datenformate, Ersatz von selbstgestrickten Tabellenkalkulations-Auswertungen durch optimierte Anwendungen für technische Datenanalyse, die große Datenmengen schnell verarbeiten können.
Ein weiterer Ansatz der Digitalisierung mit großem Potential bei vergleichsweise geringem Aufwand ist die Nachrüstung vorhandener Anlagen. In Werkhallen und Versuchslabors werden landauf, landab historisch gewachsene Systeme betrieben, …
… durchzuführen. Daher kommt der professionellen Datensicherung heutzutage besondere Bedeutung zu.
------------------------------
Im Zeitalter der Digitalisierung wird längst davon gesprochen, dass Daten die neue Währung des 21. Jahrhundert seien. Gesammelt und analysiert werden große Datenmengen somit aus unterschiedlichsten Quellen. Unternehmen gewinnen auf diese Weise große Erkenntnisse über Marktpotenziale und Kundenverhalten. "Aber genauso brauchen Unternehmen ihre Daten auch, um ihr eigenes Geschäft kontinuierlich rechtssicher durchzuführen. Ob …
… flexiblen und schnellen Rollout von Shop Funktionalitäten auf Länderebene geschaffen.
Insbesondere mittlere und große E-Commerce-Plattformen müssen sich fast immer mit Problemen langlaufender und konkurrierender Prozesse wie z. B. dem Im- und Export von großen Datenmengen auseinandersetzen. Auch bei EGLO existieren komplexe Prozesse und eine dementsprechend heterogene Systemlandschaft. Die TechDivision Middleware unterstützt EGLO dabei, Import-Prozesse zu modellieren, sichert dadurch die Verfügbarkeit der Plattform auf höchstem Niveau und sorgt für …
Banken und Versicherungen verarbeiten jeden Tag große Datenmengen in unzähligen Transaktionen. Das ist auch bei der ReiseBank AG so – Deutschlands Marktführer im Geschäft mit Reisezahlungsmitteln. Neben so genannten heißen Daten (Daten, mit denen aktiv gearbeitet wird) fallen in einem Unternehmen wie der ReiseBank jede Menge kalte (inaktive) Daten an. Diese gilt es rechtskonform zu sichern, aber bei Bedarf auch schnell wieder verfügbar zu haben.
Dipl.-Ing. Jörg-Peter Levin ist Key Account Manager & Manager Operations bei der Cristie Data GmbH: …
… und das Plugin zum aktiven Lernen liefern eine Reihe von Dataiku Webapplikationen, die den Kennzeichnungsprozess vereinfachen, ganz gleich ob es sich um Dateninhalte aus Tabellen, Bildern oder sogar Tönen handelt.
Dataiku befähigt die Global 2.000 ihre großen Datenmengen in verwertbare Erkenntnisse zu wandeln, KI-Projekte zu demokratisieren und Projekte zum Maschinellen Lernen auf eine enorm breite Basis zu stellen. Dataiku 7 verbessert die Zusammenarbeit auf allen Ebenen und macht Künstliche Intelligenz erklärbar - Künstliche Intelligenz und …
… 2020 - Welche Datenbank ist die richtige? Viele Entwickler beantworten diese Frage nach Gefühl oder Gewohnheit, ohne sich vorher Gedanken über die Aufgabe zu machen. Couchbase nennt fünf Punkte, die Unternehmen bei der Auswahl ihrer Datenbank beachten sollten.
Große Datenmengen zu sammeln und zu speichern, reicht nicht mehr. Damit Daten Mehrwert stiften und eine verlässliche Grundlage für Entscheidungen sind, müssen sie innerhalb von Sekunden ausgewertet werden. Schnell kommen dabei Terabytes zusammen, wobei die Daten heute nicht mehr unbedingt …
EcoStruxure IT ermöglicht zentrale Zusammenfassungen und Analysen großer Datenmengen
------------------------------
Vor dem Hintergrund kontinuierlich wachsender Datenmengen und der generellen Veränderung der Rechenzentrumslandschaft steigen auch die Anforderungen an die Überwachung der IT-Infrastruktur. Deshalb setzt Schneider Electric sich verstärkt mit diesem Zukunftsthema und den damit einhergehenden Herausforderungen auseinander. Inzwischen werden Daten verstärkt in hybriden Umgebungen, also lokal im eigenen Rechenzentrum und in der Cloud, …
… kostenfrei. www.supercomputing-akademie.de
• Mit dem Projekt „Data Literacy und Data Science für den Mittelstand: Weiterbildung und Qualifizierung“ stärken neun Hochschulen aus Baden-Württemberg die Kompetenzen kleiner und mittlerer Unternehmen bei der Erfassung und Auswertung massiver Datenmengen. Im Rahmen des Projekts gibt es zahlreiche, praxisbezogene Schulungs- und Qualifizierungsangebote; auch hier wird ein Blended-Learning-Angebot entwickelt. Neben der federführenden Universität Ulm und der Technischen Hochschule Ulm sind das Karlsruher Institut …
… hat das Potential ganze Branchen grundlegend zu verändern. Und obwohl es sich wie ein neues Phänomen anfühlt, wird das Thema in Expertenkreisen bereits seit über 60 Jahren diskutiert. Der Unterschied zu heute: erst die Möglichkeit extrem große Datenmengen zu sammeln, zu speichern und auszuwerten sowie bessere Prozessorleistungen machen die Anwendung von AI überhaupt möglich.
AI befasst sich mit der Automatisierung intelligenten Verhaltens von Computersystemen, mit dem Ziel eines Tages Entscheidungen schneller, präziser und zuverlässiger zu treffen …
… Zukunft sichern. Gleichzeitig unterliegt die Branche einer äußerst strengen Regulierung und hat es mit besonders vielen personenbezogenen Daten zu tun.
Um die Chancen zu nutzen und die Herausforderungen zu meistern, müssen Banken, Versicherungen und Co. große Datenmengen aus den unterschiedlichsten Quellen ganzheitlich auswerten – seien es interne Quellen wie Fileserver, E-Mails und Datenbanken oder der tägliche externe Informationsstrom für Risiko-, Markt- und Wertpapieranalysen, Börsenwerte und Wechselkurse. Eine zentrale Plattform für die Analyse …
… schon kurz nach der Markteinführung für die entsprechende Adapter-Kompatibilität von Microchip qualifizieren“, erläutert Rainer W. Käse, Senior Manager Business Development Storage Products bei Toshiba Electronics Europe. „Dies ist wichtig, um stabile Storagesysteme für die ständig wachsenden Datenmengen implementieren zu können.“
Die Vorgänger-Serien der Enterprise Capacity HDDs (MG04, MG05, MG06 und MG07) sowie die Enterprise Performance HDDs der Serien AL12, AL13, AL14 und AL15 wurden ebenfalls von Microchip in oben beschriebener Weise getestet …
… vorgestellt.
Neue Version, neues Front-End
Als neue Benutzeroberfläche wurde der sogenannte "SmartController" integriert. Mit diesem lassen sich verschiedene Bearbeitungsszenarien anlegen und anschließend im Batch-Betrieb starten und steuern. Die Stapelverarbeitung ermöglicht es, große Datenmengen zu verarbeiten. Werden beispielsweise von einem Zulieferer Konstruktionsdaten übermittelt, können diese vollautomatisch nach einem festgelegten Szenario in das hauseigene CAD-Format umgewandelt, gleichzeitig repariert und, je nach Konfiguration, auch direkt …
… aktuell neben dem Heimatmarkt Dänemark in Großbritannien, DACH, Norwegen, Schweden, Benelux, Australien und den USA geschäftlich aktiv.
Die Agillic Customer Marketing Platform ist sehr ausgereift, lässt sich hervorragend integrieren. Sie ist auf hohe Kundenzahlen und große Datenmengen im Omnichannel Marketing ausgelegt. Agillic macht viele bekannte Brands und Konzerne erfolgreicher.
Das DACH-Geschäft hat unter der Leitung von Peter Floer an Fahrt aufgenommen
Agillic hat mit VIU.ch, webit! und Cloudbridge erste starke Partner in Deutschland …
… auf, etwa Kreuzfahrtschiffe oder Renn-Yachten“ erklärt Ralf Löwenberg, Projektleiter für DSHIP auf der Solea und der Clupea. „Da ergeben sich zurzeit viele neue Einsatzmöglichkeiten für unser System.“ Und auch allgemein entwickelt sich die Umweltbeobachtung für die Meeresforschung, aber auch für aktuelle Herausforderungen wie den Klimawandel, rasant weiter und braucht zuverlässige Softwaresysteme, die immer größere und komplexere Datenmengen sicher sammeln, verknüpfen, visualisieren und speichern können – in Lüneburg ist man bestens vorbereitet.
… Industrie 4.0 Alliance
Unterstützt wird Trebing + Himstedt hierbei vom Startup industrial analytics (ia) aus dem SAP Startup Accelerator for Digital Supply Chain. Der Experte für predictive analytics zeigt, wie mit Hilfe von Maschinenkennzahlen auch ohne große Datenmengen an historischen Maschinenausfällen eine Vorhersage über den Gesundheitszustand einer Anlage getroffen werden kann.
Zu sehen und zu diskutieren sind die Beispiele auf dem Trebing + Himstedt Stand in Halle 17, B52. Kostenlose Fachbesuchertickets gibt es unter www.t-h.de/hannovermesse
… die Anforderungen moderner Mitarbeiter ausgelegt, überzeugen die Notebooks zudem mit dem WLAN Standard Wi-Fi 6. Das neueste Intel® Wi-Fi 6 AX200 Modul ermöglicht verzögerungsfreie Verbindungen und höhere Geschwindigkeiten in der Datenübertragung. So können mehr Datenmengen in geringerer Zeit transferiert werden. Gleichzeitig gewährleistet die Unterstützung von Dual Storage mit SSD- und HDD-Laufwerken eine ausgesprochene Flexibilität in Bezug auf Leistung und Speicherkapazität. Eine Reihe an nützlichen Schnittstellen stellt eine umfassende Konnektivität …
… physische, virtuelle als auch menschliche Faktoren berücksichtigen. Das Wachstum von Cloud- und Edge-Computing hat die physischen und virtuellen Grenzen des Rechenzentrums neu definiert. Ständige Fortschritte bei den Cloud-Netzwerktechnologien und wachsende Datenmengen stellen Unternehmen und Cloud-Betreiber vor die Herausforderung, verbesserte digitale Lösungen zu liefern und gleichzeitig Daten und Vermögenswerte zu schützen.
"Da neue wirtschaftliche Möglichkeiten durch softwaredefinierte Cloud-Technologien erschlossen werden, bringen sie gleichzeitig …
… Systemen mit Petabyte-Skalierbarkeit das Wachstum von Infinidat bei Kundenzahl und installierter totaler Speicherkapazität weiter beschleunigen wird.
Die InfiniBox-Speichersysteme erfüllen den hohen Bedarf der Kunden an Speicherkapazität, der sich aus der Tatsache ergibt, dass die Datenmengen, die von Anwendern generiert und gespeichert werden, weiterhin zweistellige Zuwachsraten aufweisen. Kunden aller Größen und Branchen haben ihre Betriebskosten und die Produktivität ihrer Mitarbeiter durch die Konsolidierung einer großen Anzahl von Speicher-Arrays …
… Produkte werden auf der Webseite im Detail umschrieben.
Zum einen gibt es eine sogenannte Einzelplatzversion zum anderen eine Serverversion. Die zwei Produkte unterscheiden sich in erster Linie in den Speichermengen und Optionen, welche hinzugebucht werden können. Datenmengen von 30 bis mehreren TB sind möglich.
Support und Installation sind bei der Serverversion kostenlos.
Daten schnell wiederhergestellt
Sollten die Daten im Notfall schnell wiederhergestellt werden müssen, kann sich der Kunde ganz einfach die Backupsoftware installieren. Die …
… anderem gehören Tools zur intelligenten Verarbeitung von Eingangsrechnungen dazu, ebenso wie integrierte Collaborationtools für die moderne Unternehmenskommunikation, die die Zusammenarbeit von Teams und Mitarbeiter fördern.
„Mit zunehmender Geschwindigkeit werden immer größere Datenmengen erzeugt, Unternehmensabläufe werden komplexer und Entscheidungen müssen schneller denn je gefällt werden. Um mit diesen Entwicklungen schrittzuhalten, ist die Umsetzung digitalisierter Prozesse in mittelständischen Unternehmen unverzichtbar“, ist Peter Behrens, …
… Display]
Tecra A40-E-168: 1.091,00 €
[Intel® Core™ i5-8250U der 8. Generation, 8 GB DDR4 RAM, 256 GB M.2 PCIe SSD, entspiegeltes Full-HD Display, LTE]
Leistungsstarker Allrounder
Die Geräte verfügen über bis zu 256 GB* große SSD-Festplatten, mit denen sich auch große Datenmengen schnell speichern und verarbeiten lassen. Gegenüber HDD-Festplattten sind SSDs aufgrund der fehlenden mechanischen Komponente besonders robust und für den mobilen Einsatz prädestiniert. Ob bei langen Arbeitstagen oder auf Geschäftsreisen: Mit einer Akkulaufzeit von bis zu 13 …
… Digitalisierungsplattform X4 Suite, die Menschen, Systeme und Geräte verbindet und so Reaktions- und Durchlaufzeiten, Fehler und Kosten reduziert und Prozesse beschleunigt.
„E-Mobilität, Smart Buildings, digitale Kommunikation und intelligente Stromnetze – vernetzte Quartiere erzeugen große Datenmengen, die es nicht nur zu beherrschen, sondern effizient zu nutzen gilt“, sagt Martin Zimmermann, Produktmanager Quartierslösung bei VIVAVIS. Unerlässlich sei dafür eine zentrale und standardisierte Digitalisierungsplattform, die Messdaten aus vielfältigen Geräten erfasst, …
Siegen. Die ReiseBank AG archiviert kalte Daten automatisiert mit dem PoINT Storage Manager und entlastet so ihre Netzwerklaufwerke von inaktiven Datenmengen. Mit Hilfe der PoINT Software konnte der Marktführer im Geschäft mit Reisezahlungsmitteln Backup- und Recovery-Zeiten signifikant reduzieren und eine zukunftssichere Speicher-Infrastruktur schaffen.
Große Mengen inaktiver Daten belegten wertvollen Speicherplatz auf den Netzwerklaufwerken der ReiseBank AG und sorgten für eine erhebliche Verlängerung der Backup- und Recovery-Zeiten. Deshalb …
… Akademie die frühe Entwicklung von hierarchischen Speichermanagement-Systemen (HSM) bereits zu Beginn der 2000er-Jahre. Zu dieser Zeit benötigte die Medien- und Unterhaltungsbranche zunehmend Shared-Storage-Systeme im großen Maßstab, um effizient mit den wachsenden Datenmengen arbeiten zu können, die in immer unterschiedlicheren Formaten anfielen.
Isilon, damals noch ein eigenständiges Unternehmen, entwickelte eine Network-Attached-Storage-Lösung mit Tiering-Technologie, die sich einfach nutzen ließ und unkompliziert exponentiell wachsen konnte. …
… - schließlich ist eine Datenbank auch stets ein systematisiertes Abbild der Wirklichkeit. Und - um die Wichtigkeit von Datenbanken kurz zu beschreiben: Facebook, Google, Wikipedia beruhen jeweils letztlich auf Datenbanken. Das Sammeln und kluge Vernetzen von riesigen Datenmengen machte aus diesen Unternehmen die größten und wichtigsten Firmen der Welt.
Insbesondere Google entwickelt sich weiter zu künstlicher Intelligenz, wenn man Google selbst nicht schon als solche bezeichnen kann. Datenbanken sind das "Gedächtnis" von KI. Ohne Gedächtnis keine …
… Rechenzentren bereit. Durch die Integration der Cumulus Linux- und NetQ-Lösungen in die HPE StoreFabric Ethernet-Switches der M-Serie entsteht eine flexible Netzwerkstruktur mit exzellenter Vorhersagbarkeit, Skalierbarkeit und Zuverlässigkeit.
Angesichts des ungebremsten Wachstums der Datenmengen und so innovativer Technologien wie KI, 5G und IoT benötigen Unternehmen deutlich mehr Optionen, um die ständig steigenden Anforderungen an ihre Netzwerke zu bewältigen. Anspruchsvolle Anwendungen erfordern eine leistungsstarke All-Flash-Speicherinfrastruktur …
… stellen sicher, dass Unternehmen Daten in beliebiger Größe erfassen und analysieren und somit typische Big-Data-Anwendungsfälle realisieren können. Ein Adapterpaket für Apache Kafka bedient ab sofort weitere Schnittstellen und beschleunigt die Digitalisierung durch die Verarbeitung großer Datenmengen sowie das Laden und Exportieren von Datenströmen zu Drittsystemen.
Erweiterte IoT- und Cloud- Unterstützung
Weitere Highlights der neuen Version der X4 Suite sind der MQTT Publisher/Subscriber im IoT-Segment oder der OData Connector. Dieser erlaubt es, …
PoINT Archival Gateway ist ein skalierbarer und hoch performanter S3-basierter Object Storage. Die Software speichert und verwaltet riesige Datenmengen auf Tape-Libraries. Insbesondere der Tape-Technologie kommt aufgrund des enormen Wachstums an unstrukturierten Daten, zunehmender Anforderungen an die Archivierung und des Schutzesvor Ransomware (Stichwort „Air Gap“) eine immer wichtigere Rolle zu. Außerdem können auf Tape-Medien im Vergleich zu Festplatten-basierten Systemen große Datenmengen wesentlich günstiger gespeichert und archiviert …
… Option von 50% mehr CPU und 30-70% mehr Grafikleistung. Darüber hinaus kann die standardmäßige 8 GB-Konfiguration des schnellen, effizienten DDR4-Speichers auf 16 GB oder sogar 32 GB erweitert werden, um die Verarbeitung großer Datenmengen in Echtzeit zu unterstützen. Mit dieser massiven Leistungssteigerung können Kunden nun modernste Thick-Client-Anwendungen wie Echtzeit-Videoanalyse oder hochauflösende grafische Animationen ausführen sowie komplexe neue Benutzeroberflächen zur Verbesserung der allgemeinen Benutzerproduktivität erstellen.
Aber auch …
… rund um die Themen ePublishing und Intelligente Suche. HitEngine und PubEngine sind die Quintessenz aus 25 Jahren Erfahrung aus Hunderten von Projekten mit Fachverlagen, Behörden, Konzernen, großen Datenbanken, großen Inter- und Intranetprojekten und großen Datenmengen.
Made in Germany: "Wir glauben, dass der direkte Draht zum Kunden besonders wichtig und erfolgreich ist. "
Partnerschaften mit weltweit führenden Technologieunternehmen und Organisationen wie OCLC oder PROQUEST helfen dem Unternehmen, ständig neue Potenziale aufzudecken.
Agile …
… Netzwerk- und Telekommunikationstechnik.
Peils Auffassung lautet daher: "Unternehmen sind dazu aufgerufen, sich mit ihren eigenen Strukturen zu befassen, diese genau zu analysieren und sich die Frage zu beantworten, was genau sie benötigen: Wie groß sind die potenziellen Datenmengen? Wie viele Systeme sind an das Netzwerk angebunden, und wie viele Nutzer greifen auf Computer und Maschinen zu? Werden Vernetzungen zu internationalen Standorten benötigt?" Daraus ergebe sich dann ein Überblick, welche technischen und strategischen Modernisierungsmaßnahmen …
… Übersichtlichkeit zu erhöhen. All dies ist mit den client- und serverseitigen Erweiterungen von Qlik2DataRobot möglich, die die einzigartigen Integrationsmöglichkeiten der patentierten Qlik associative engine nutzen.
„Die meisten Unternehmen sind nicht in der Lage große Datenmengen bei ihrer Entscheidungsfindung mit einzubeziehen, Data Scientists können die immense Nachfrage schlichtweg nicht mehr erfüllen. Künstliche Intelligenz und maschinelles Lernen sind erforderlich, um die Daten so nutzen zu können, dass sie echte Geschäftsergebnisse liefern.“, …
… the NOC".
"Mit unserem Sieg konnten wir uns erneut im internationalen Vergleich als Splunk Experte positionieren und unser Fachwissen unter Beweis stellen. Es ist uns sehr wichtig, unseren Kunden professionelle Lösungen zur Verfügung zu stellen, um große Datenmengen nachhaltig und sinnvoll interpretieren zu können. Mit den Lösungen von Splunk können wir unsere Kunden hier bestmöglich unterstützen", erläutert Christopher Gasteier, Solution Manager IT-Management/ Business Development bei Controlware.
Auf der jährlichen Konferenz von Splunk in Las …
… neue Lösungen. Im Trend liegen vor allem KI (Künstliche Intelligenz)-gestützte Applikationen.
KI-basierende Sicherheitssysteme nutzen unter anderem lernbasierte Verfahren, Mustererkennungen oder statistische Prognosemodelle. Zentrale Vorteile des KI-Einsatzes sind das Durchforsten großer Datenmengen und die Suche nach Angriffsmustern oder Anomalien. Auf dieser Basis können proaktiv Abwehrmaßnahmen ergriffen werden. Allerdings ist keinesfalls gewährleistet, dass KI-Programme auch alle Indizien für eine vermeintliche Gefahr identifizieren. Darüber …
… neue Version von WebFOCUS wird fortlaufend mit neuen Funktionen ausgestattet, aktualisiert und durch die Cloud-basierten Managed Services unterstützt, darunter:
• Time-to-Value: Eine neu gestaltete Startseite und intelligente Suchfunktionen ermöglichen Anwendern, große Datenmengen schnell zu durchsuchen und auf die Informationen zuzugreifen, die sie benötigen, um möglichst schnell relevante Erkenntnisse zu gewinnen.
• Benutzerfreundlichkeit: Einheitliche Datenzugriffsfunktionen, die identisch aussehen und funktionieren, unabhängig davon, ob sie …
… werden (Kennzahlen, Dimensionen, Logiken). Je mehr Daten, desto komplexer wird diese Aufgabe.
Hosting: Je mehr Daten, desto aufwändiger und teurer wird ihr Hosting – einer der kritischsten Punkte in der Skalierbarkeit einer BI-Lösung. Und Skalierbarkeit muss sein, denn Datenmengen wachsen nicht nur mit zusätzlichen Anforderungen und/oder Quellen, sondern auch durch das Wachstum des Unternehmens selbst.
Analyse: Viele Daten sind zwar viele Informationen, doch aus Giga- und Tera- und Petabytes von Daten die Informationen heraussuchen, die wirklich …
… mit starken Partnern aus DACH eine mindestens gleichwertige Alternative anzubieten, die schneller einsetzbar ist und direkte Erfolge liefert. Die Agillic Platform ist sehr ausgereift, lässt sich hervorragend integrieren und ist auf große Kundenzahlen, viele Kanäle und hohe Datenmengen ausgelegt.“
Jesper Valentin, CEO von Agillic sagt: „Peter Floer ist als Leiter unseres DACH Geschäfts ein echter Gewinn für Agillic. Sein Wissen und seine nachgewiesene Erfolgsbilanz im Bereich Marketing-Technologie werden uns geschäftlich in Deutschland, der Schweiz …
… Daten zur Verfügung gestellt wird.
Dass in diesem Fall entstehende Filesharing, also das Teilen von grossen Daten über das Internet wird im Gegensatz zu Cloud Storage Diensten wie Dropbox, Google Drive oder OneDrive hauptsächlich für die kurzfriste Übermittlung von grösseren Datenmengen genutzt und bewährt sich vor allem durch ihre einfache Bedienung und der registrierungsfreien Nutzung.
Der Schweizer Filehosting Dienst bigfile.ch erlaubt dabei, dass kostenlose Versenden von bis zu 50 einzelnen Dateien mit nun neu einer Gesamtgrösse von bis zu …
… Branche in Frage stellt: Wird es wirklich schiere Massen an Daten geben, die gespeichert werden müssen? Oder ist es nicht vielmehr so, dass Edge-Devices des Internet of Things künftig über eigene Algorithmen und Rechenleistung verfügen, die die zu speichernden Datenmengen deutlich dezimiert?
Aus einer ganz praktischen Sicht berichtet Peter Buschman, Product Owner Storage bei booking.com. Das Buchungsportal ist auf eine latenzarme Datenverarbeitung angewiesen – und setzt seit etwa zwei Jahren auf eine sogenannte Software Defined Infrastructure für das …
… Migration, steht Unidienst mit Best Practice Prozessen und Know-how bereit!
„Der Prozess der Migration von OnPremise zur Cloud darf bei der Produktivität des Unternehmens und den Anwendern nicht spürbar sein“, so Geschäftsführer und Projektverantwortlicher Stefan Wambacher: „Auch wenn riesige Datenmengen von A nach B wandern, ist dies im Arbeitsalltag eines Unternehmens beim Migrationsansatz von Unidienst nicht merkbar. Der Go Life ist wie ein Schalter, der umgelegt wird: von alt auf neu!“
Zur Gewährleistung bietet Unidienst Kompetenz bei der Migration …
… VERKNÜPFT MIT NEUESTER TECHNOLOGIE
Das RFID Tablet ist mit einem Quad A53 1.3 GHz Quad-Core Prozessor ausgestattet. Arbeitsprozesse erfordern eine hohe Leistung, daher ist der Leser mit 2 GB Arbeitsspeicher bestens für Ihre betrieblichen Erfordernisse geeignet. Große Datenmengen von bis zu 32 GB können auf einer MicroSD Karte gespeichert werden.
? KOMMUNIKATIONSSCHNITTSTELLEN FÜR MEHR EFFIZIENZ
Das C4 Tablet ist mit der neuesten 4G LTE Technik ausgestattet und unterstützt die Kommunikationsmöglichkeiten: WLAN, WWAN, WPAN, GPS & Bluetooth.
? …
… Derzeit vor allem von kleinen und mittelständischen Betrieben genutzt, trägt WebGAEB von Dangl IT GmbH entscheidend dazu bei, offene Standards im Bauwesen zu fördern.
Ausblick in die Zukunft
Neben dem Cloudgeschäft steht 2020 für die Dangl IT GmbH weiterhin ganz im Zeichen von Building Information Modeling (BIM), das heißt, dem Arbeiten mit digitalen Modellen von Bauwerken. Nachdem im laufenden Jahr immer mehr Kunden damit begonnen haben, Ihre oft riesigen Datenmengen intelligent miteinander zu verknüpfen, wird sich dieser Trend nur noch verstärken.
… für den Schutz einer unbegrenzten Datenmenge für NextGen SIEM bekannt. Während andere in der Branche behaupteten, unbegrenzte Datenmodelle zu unterstützen, gab es bisher immer einen Haken. LogRhythm ändert dies, um die Vorhersehbarkeit hinsichtlich der Finanzierung des Schutzes steigender Datenmengen für CISOs zu verbessern und Risiken zu minimieren.
Während die Anzahl und Schwere von Verstößen weiter zunimmt, wächst das Datenvolumen exponentiell. CISOs bekommen die Wucht davon zu spüren, da sich die Kosten für den Schutz der riesigen Datenmengen …