… die Sicherheitsbehörden" im Themenblock Justiz im Forum "Public Sector Parc" (Halle 7) veranschaulichen. Am Mittwoch, den 22.03.2017 von 10.00 Uhr bis 10.30 Uhr präsentiert Disy am Beispiel deutscher Bundes- und Landesbehörden, wie mit Cadenza große heterogene Datenmengen nutzbar gemacht werden und welche Chancen sich daraus ergeben.
Forschung hat bei Disy Tradition
Seit Gründung ist Disy eng mit Forschungseinrichtungen vernetzt und engagiert sich aus dieser Historie heraus immer wieder in Forschungsprojekten zu Umweltinformatik und intelligenter …
… eine optimale Lastverteilung auf möglichst viele Server und sind ausfallsicherer. Gerade für große Unternehmen, deren Server und Daten über mehrere Standorte verteilt sind, ist das von erheblichem Vorteil.“
Enterprise Search-Lösungen für fundierte Geschäftsentscheidungen
Wachsende Datenmengen in den Unternehmen, unstrukturiert beispielsweise in E-Mails und Präsentationen oder strukturiert als Sensordaten aus dem IoT in Datenbanken, bergen ein enormes Potenzial. Oftmals lagern diese Daten und Dokumente in cloudbasierten Applikationen, verschiedenen …
… Regeln der eigentlichen Sprache zu kennen.
Die so übersetzten Texte kommen meist näher an natürliche Sprache als regelbasiert übersetzte Texte, und die Übersetzung funktioniert meist auch sehr gut bei häufig vorkommenden Sprachpaaren. Hierfür sind jedoch sehr große Datenmengen erforderlich, was momentan auch ein Nachteil dieser Systeme ist. Sprachen von denen es weniger bzw. kleinere Textkorpora gibt, lassen sich mit dieser Methode schlechter übersetzen.
Ebenso problematisch sind stark flektierende Sprachen mit einer reichen Morphologie oder Sprachen …
… sicheren Datenaustausch im Gesundheitswesen zwischen Ärzten, Laboren, Krankenkasse und Patienten
- Die bequeme und hochsichere Übermittlung von Patientendaten, beispielsweise von Patienten aus dem Ausland
- Das Problem mit Datei-Limits bei der Übertragung von großen Datenmengen, wie MRT-Dateien, DICOM, Bildern, Videos, etc.
- Die Verschlüsselung von E-Mail-Anhängen
- Projektdatenräume für gemeinsame oder internationale Forschungsprojekte
Lassen Sie sich Secure Data Space mit Ihren Anforderungen in einer Live-Demo zeigen.
Besuchen Sie uns dafür in …
… für 5G stark beschleunigt zur Reife bringen, die Zeitspannen für die Produktverifikation verkürzen und die groß angelegte kommerzielle Nutzung vorantreiben. ZTE hat hunderte von technischen Patenten angemeldet und, auf Basis der aus aktuellen Szenarien gewonnenen enormen Datenmengen Wertvolles zu den Vorschlägen der Normungsorganisationen in Bezug auf diesen technologischen Prozess beitragen können.
Zhang Jianguo, SVP von ZTE, erklärt: „ZTE setzt seine Innovationstätigkeit im Feld 5G fort, um den Bedürfnissen der Kunden bei Produkten und Dienstleistungen …
… Das Forschungsvorhaben unter Federführung der Process Analytics Factory GmbH und in enger Kooperation mit der TU Darmstadt sowie dem Unternehmen ServiceTrace GmbH hatte das Ziel, die Wissensgewinnung anhand Process-Analytics-basierter Recherchen in großen Datenmengen zu beschleunigen. In diesem Forschungs- und Entwicklungsvorhaben entstand eine neue, einfach anzuwendende und sofort betriebsbereite Technik für die operative Prozessdiagnose. Dieses Ergebnis wurde in eine intelligente Automatisierungsplattform für die Analyse von Geschäftsprozessen …
… einer Roadshow können Interessenten die Plattformen „live“ kennenlernen und erhalten Impulse für ihren Einsatz im Zeitalter von Big Data und Realtime. Organisiert wird die Roadshow von QuinScape, einem führenden Partner von TIBCO und Talend
Die verfügbaren Datenmengen verdoppeln sich alle 2 Jahre, dennoch wird nur ein Bruchteil dieser Daten analy-siert. Vielfach werden Entscheidungen ohne Datengrund-lage getroffen und Wissensarbeitern stehen die benötigten Informationen nicht zeitgerecht oder in der angemessenen Visualisierung zur Verfügung. Neben …
… der N300-Reihe ist das Modell mit 8 TB (1) ein Consumer-Laufwerk, das für Leistung, Zuverlässigkeit, Belastbarkeit, Skalierbarkeit sowie Dauerbetrieb optimiert ist.
Die N300-Serie wurde von Toshiba speziell für NAS-Umgebungen entwickelt, bei denen es darauf ankommt, große Datenmengen rund um die Uhr zuverlässig zu speichern. Die Festplatten sind für NAS-Systeme mit bis zu acht Laufwerkschächten ausgelegt und eignen sich damit für Multi-RAID-NAS-Designs, die mit den steigenden Speicheranforderungen ihrer Besitzer mitwachsen.
Alle Festplatten der …
… Weiteren besteht die Möglichkeit der Messdatenrückführung.
Die Darstellung der erfassten Daten ist ebenso skalierbar und reicht von der einfachen Balkenansicht über Regelkartendarstellungen bis zur hoch performanten grafischen Echtzeitvisualisierung mehrkanaliger Messwerte. Die Verwaltung großer Datenmengen ist durch die integrierte Datenbankschnittstelle genauso möglich, wie der Export erfasster Daten in eine bestehende QS Software zur statistischen Auswertung und Aufarbeitung.
Die Markteinführung der Comquass 4.0 Plattform erfolgt im II. Quartal …
… zusammengestellt - häufig in Excel, verbunden mit hohem manuellem Aufwand und entsprechender Fehleranfälligkeit.
„Business Intelligence liefert der Geschäftsführung wegweisende Informationen und basiert heute zunehmend auf der schnellen Zusammenstellung und Auswertung der zur Verfügung stehenden Datenmengen“, weiß Ralf Schlüter. Voraussetzung sei eine flexible, vernetzte Software, die die relevanten Zahlen in den Analysen berücksichtigt, klar und zielgerichtet aufbereitet und den verschiedenen internen und externen Empfängern zukommen lässt. „Gerne überzeugen …
… Datensynchronisation bei bestehender Internetverbindung ist die App offline-fähig, d.h. bereits heruntergeladene und installierte Datenpakete enthalten alle notwendigen Informationen, um eine Verwendung der App auch ohne Internetverbindung möglich zu machen.
Darüber hinaus müssen große Datenmengen aufbereitet und dargestellt werden. Um dies zu gewährleisten, nutzt TDSoftware einen Server, der durch eine MicroService-Struktur flexibel und hoch skaliert. Im Gegensatz zu einem großen Programm ist die Server-Applikation in mehrere kleinere Programme …
… Suche Ihre Dokumente im Unternehmen auf die selbe Art und Weise wie Google oder Bing im Internet. Basierend auf SharePoint realisiert hamcos für Sie eine Enterprise Search Architektur, die speziell auf Ihre Unternehmensanforderungen angepasst wird.
Mit den immer größeren Datenmengen in Unternehmen wächst die Herausforderung den Mitarbeitern eine Möglichkeit zu bieten Inhalte schnell zu finden und übersichtlich zu verwalten.
Kennen Sie das? Eigentlich wollten Sie nur kurz einen Preisvorschlag o.ä. vom letzten Jahr abgleichen. Also beginnen Sie das …
… Prozesseffizienzen ebenso wie neue Anwendungsfelder ergeben.
Basis für die Umsetzung sind smarte, hoch flexible und modulare Informationssysteme, die die Bereitstellung und Nutzung von Sensordaten durch unterschiedliche Nutzergruppen unterstützen, große Datenmengen verarbeiten, Expertenwissen in Form von Methoden beliebig integrieren sowie kooperative Marktplatzfunktionalitäten für die wirtschaftliche Verwertung anbieten können. Die dafür erforderliche Referenzarchitektur sowie geeignete integrierte Modelle für eine unternehmensübergreifende Plattform …
… den Festplatten der N300-Reihe handelt es sich um Consumer-Laufwerke, die für Leistung, Zuverlässigkeit, Belastbarkeit, Skalierbarkeit sowie Dauerbetrieb optimiert sind.
Die N300-Serie wurde von Toshiba speziell für NAS-Umgebungen entwickelt, bei denen es darauf ankommt, sowohl große Datenmengen zuverlässig zu speichern als auch tagtäglich auf die Daten zuzugreifen. Die Festplatten sind für NAS-Systeme mit bis zu acht Laufwerkschächten ausgelegt und eignen sich damit für Multi-RAID-NAS-Designs, die mit den steigenden Speicheranforderungen ihrer …
… zukünftigen Geschäftspartner sind, und auf welche Weise sie mit ihnen und deren Systemen kommunizieren werden“, erklärt Holger Behrens. „Wir zeigen den Kunden sichere, effiziente und skalierbare Wege in eine Cloud-Zukunft auf.“ Gerade wegen der enormen Datenmengen spielt die Datensicherheit eine immer größere Rolle. cormeta demonstriert deshalb auf der Messe, wie sich Daten, Informationen, Belege und Dokumente in SAP-Systemen digitalisieren sowie rechtskonform und nachhaltig archivieren lassen.
TRADEsprint mit Kundenportal, Produktdatenbank und …
Die beyondata GmbH, spezialisiert auf Big Data, Analytics und KI-Technologien, hat 2016 die TextTech GmbH (http://www.texttech.de) übernommen.
Big Data und Künstliche Intelligenz sind in aller Munde. Schließlich gehört die Analyse, Erfassung und Verarbeitung großer Datenmengen heutzutage schon zum Alltag. Dennoch: So ganz geheuer ist uns allen das Ganze wohl immer noch nicht, zumal die Entwicklung rasant voranzuschreiten scheint. Ehrfürchtig bis ängstlich sprechen viele darüber, was die moderne Gesellschaft wohl in naher Zukunft erwartet, wenn die …
… Aufgabe. Dabei haben wir auf Machine Learning als leistungsfähige Technologie im Hintergrund gesetzt“, erklärt Paddy Lawton, Gründer von Spend360. „Mit der Übernahme durch Coupa haben wir jetzt die Chance einen größeren Kundenkreis anzusprechen und größere Datenmengen zu analysieren, um zusätzliche Erkenntnisse durch den Einsatz in Netzwerken zu gewinnen.“
„Die Integration von Machine Learning und künstlicher Intelligenz in Spend360 haben den Spend360-Kunden hervorragende Ergebnisse gebracht. Wir erreichen durch die Integration in unsere Plattform …
… abgelegt werden. Für die grafische Darstellung liefert Grafana das Frontend, über welches die Suchanfragen vordefiniert und die entsprechenden Grafiken generiert werden. Die Integration von InfluxDB und Grafana ist für die Erkennung von Trends innerhalb großer Datenmengen konzipiert. Die leistungsstarke Datenbank stellt Daten innerhalb von Millisekunden nach deren Erfassung zur Verfügung, wodurch sie Analysen in Echtzeit ermöglicht. Durch den Vergleich historischer Daten können Muster, Trends, Abweichungen und Entwicklungen erkannt werden.
Auch …
Zug/Schweiz, 11. Januar 2017 – Die Preisanalyse-Software NLPP wurde speziell zur Kostenoptimierung, Preisprognose und Benchmark-Erstellung im technischen Einkauf entwickelt. Mit dem ab sofort verfügbaren Release 2.4.1. beschleunigt sich nun die Analyse von sehr großen Datenmengen: Mehr als 5.000 Teilenummern mit beliebig vielen Merkmalsausprägungen können auf Knopfdruck sehr schnell miteinander verglichen werden. Die Software ermittelt automatisch für alle Teile die Abweichung zwischen Soll- und Ist-Preisen, zeigt Inkonsistenzen des absoluten und …
… Problem ist, solange man auf der Ebene einer einzelnen Maschine bleibt. Doch irgendwann muss diese auch mal aufgestellt werden oder gar eine komplette Förderstraße geplant werden. Hier wird dann die einzelne Schraube zum Problem, denn für die Datenmengen, die bei der Planung einer kompletten Produktionsstraße entstehen, sind die üblichen 3D CAD Systeme nicht ausgelegt. Hierbei wird dann typischerweise wieder auf die bewährten 2D-Layouts zurückgegriffen, da diese keine Performanceprobleme mit sich bringen.
3D-Layout System als Lösung
Heutzutage sind …
… werden können und vernetzt hierfür Forscher aus den Bereichen Mathematik, Informatik, Veranstaltungssicherheit, Soziologie und Bauingenieurwesen sowie die IMS. Das Softwarehaus bearbeitet hierbei im Kontext von Big-Data die Sammlung, Aggregation und Konsolidierung großer Datenmengen unterschiedlichster Art.
Ergänzend leistet IMS immer wieder Beiträge zu weiteren Forschungsvorhaben und unterstützt Studierende bei ihren Seminaren und Abschlussarbeiten.
„Forschung ist für uns eine wichtige und selbstverständliche Aufgabe und aus dem Alltag von IMS …
… ableiten.
„Unser ERP-System ist eine Schaltzentrale, die zunehmend in Industrie 4.0-Umgebungen Anwendung findet. Das System ermöglicht die weitestgehend automatisierte Abbildung von horizontalen und vertikalen Geschäftsprozessen. Auf horizontaler Ebene bildet sphinx open online die ideale Ergänzung unseres Produktes. Denn heute geht es mehr denn je darum, immense Datenmengen zu erfassen, zu visualisieren und mit einem Blick, an jedem Ort der Welt, nutzbar zu machen“, sagt Michael Finkler, Geschäftsführer bei der proALPHA Business Solutions GmbH.
… Passende Zusatzinformationen leiten dann optimalerweise durch die Seite. Findet der Nutzer gleich, was er sucht, bedeutet dies eine bedarfsorientierte Customer Journey mit größerem Potenzial zum Kaufabschluss, die im besten Fall noch weitere Käufe nach sich zieht.
Problem Vernetzung der Datenmengen
Was in der Theorie so einfach klingt, ist in der Unternehmensrealität oft schwer zu handhaben, denn die Datenmengen werden mehr und zeitgleich aktuelle Informationen in alle Kanäle auszuspielen nimmt Zeit und Nerven in Anspruch. Hinzu kommt das häufige …
… Komponenten ohne LTFS-Unterstützung. Die Kosteneffizienz in der Video-Postproduktion zeigt sich darin, dass die NEO Agility-Geräte das Äquivalent von 100 Video-Disks auf nur ein LTO-Tape-Medium speichern können.
Ein anderer wichtiger Zielmarkt ist der Gesundheitssektor, wo immer größere Datenmengen gespeichert und archiviert werden müssen. Laut dem Marktforschungsunternehmen Frost & Sullivan sollen bis Ende dieses Jahres allein in den USA mehr als 1.000 Petabyte medizinischer Bilddaten im Jahresrhythmus generiert werden. Das entspricht etwa 600 …
… ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
Das Steinbuch Centre for Computing (SCC) des KIT steht für weltweit sichtbare Forschung, Entwicklung und Innovation in den Bereichen des Hochleistungsrechnens (High Performance Computing, HPC), der Behandlung großer Datenmengen (Data Intensive Computing, DIC) und der sicheren IT-Föderationen. Das SCC offeriert ein breites Spektrum an verlässlichen IT-Services, die auf einer sicheren und hoch verfügbaren Infrastruktur basieren, und gestaltet maßgeblich die Entwicklung von ubiquitären, …
… second) aufwartet, sorgt eine SSD mit bis zu 10.000 IOPS für einen Faktor bis zu 1.000 an Performance-Plus. Typische Einsatzgebiete für SSDs in Servern finden sich somit häufig im Umfeld von Anwendungen, die innerhalb kürzester Zeit auf große Datenmengen zugreifen, diese verarbeiten und zur Verfügung stellen – etwa Datenbanken wie MySQL oder Webserver.
Umfangreicher Service und attraktive Features
Alle vServer von EUserv sind hochperformante, virtualisierte Linux Rootserver mit vollem Administrator-Zugriff („root“). Bis zu 32GB RAM und 8 Cores …
… starten.
In der von fecher neu entwickelten Stateless-Architektur verbindet sich hunter V19 über das sichere HTTPS-Protokoll mit dem Datenbank-Server, der Datenaustausch erfolgt in kompaktem XML-Format. Gegenüber den üblichen datenbankspezifischen Austauschformaten werden so erheblich geringere Datenmengen übertragen und die Sicherheit ist ohne aufwändige VPN-Verbindung gewährleistet. "Das sorgt für erheblich höheren Durchsatz und macht die Verbindungen robust gegenüber Störungen", freut sich Gerhard Schickel, Head of Recruitment Solutions bei fecher. …
… E-Mail ausgetauscht und es kann leicht vorkommen, dass sie irrtümlich an den falschen Adressaten geschickt werden.
Da lokale Daten eher unregelmäßig gesichert werden, stellt das ein weiteres Sicherheitsrisiko dar.
Was ist zu tun?
Bei steigenden Datenmengen im Labor und dem Ruf nach kürzeren Durchlaufzeiten und Termindruck ist vielfach Handlungsbedarf. Ein Laborinformationssystem kann hier Abhilfe schaffen.
Was kann ein Laborinformationssystem leisten?
Ein Laborinformationssystem ist datenbankbasiert, wird zentral installiert, administriert und …
… Stadtverordnetenversammlung vom 6.7.2016 bereits den Grundstein der Open Data-Aktivitäten gelegt. Damit wurde ein Konzept zur Umsetzung der Nutzung von Open Data, beispielsweise mit der Etablierung eines zentralen Open Data Portals, erfolgreich auf den Weg gebracht. Diese Datenmengen der Allgemeinheit frei zugänglich zu machen und leicht verständlich aufzubereiten ist das Anliegen des Open Knowledge Lab Potsdam. Die „offenen“ Informationen können dann von Potsdamern aber auch Wissenschaft und Unternehmen leicht weiterverwendet werden. Außerdem möchte …
… Besonders innerhalb der Vergleichsgruppe der "Integrierten Performance Management Produkte" wurde Jedox von Anwendern überdurchschnittlich gut bewertet.
Durch eine extrem schnelle Implementierung, intuitive Bedienung und eine hohe Rechenleistung auch bei komplexen Projektszenarien mit großen Datenmengen hat sich Jedox als wertvolles Werkzeug für die Steuerung von Unternehmensprozessen international etabliert. Die aktuellen Ergebnisse der weltweiten Anwenderbefragung BARC The BI Survey 16 belegen, dass Jedox seine Kunden überzeugt: Preis-Leistung, …
Spezialist für Datenbanken beauftragt Hamburger Vertriebsdienstleister
Hamburg, 1. Oktober 2016. Der Datenbank- und Anwendungsspezialist InfoSys aus Rendsburg kooperiert mit Sovendis, dem Hamburger Vertriebsdienstleister für Softwareunternehmen, um Auftraggeber einer größeren Zielgruppe zu gewinnen.
InfoSys GmbH, die 1992 gegründet wurde und Oracle Gold-Partner ist, hat als IT-Dienstleister eine starke vertikale Ausrichtung, mit der sie Kunden bei der Konzeption und Projektierung von IT-Systemen und -Strukturen bis hin zur Durchführung von …
… Analytics-Lösungen und analytische Datenbanken. Der Schwerpunkt liegt dabei auf der Verarbeitung von Maschinen- und Anlagendaten, die in der industriellen Fertigung eingesetzt werden, unter anderem für deren Analyse im Kontext von großen, komplexen und unstrukturierten Datenmengen.
Zu den zentralen Bewertungskriterien in dieser Kategorie zählen unter anderem der Nachweis von praktischen Beispielen von Big Data-Analysen mit Maschinendaten, Prognosen und über das Monitoring hinausgehende Analysen z.B. zum Finden von Ursachen für Ausbeuteschwankungen …
… Application Servers sowie der Datenbank vorgenommen. Die Optimierung des Datenbankmanagementsystems DB2 wurde maßgeblich unterstützt durch das „DB2 Center of Excellence“ von IBM in Rochester (Minnesota, USA).
Die Ergebnisse belegen die Enterprise-Fähigkeit von novomind iPIM: Produktdatenmengen bis zu 17 Mio. Produkte sind gut abbildbar, die Skalierbarkeit von novomind iPIM wurde belegt. novomind iPIM skaliert ohne Softwareveränderungen mit der zugrundeliegenden Hardware des DB- und Application-Servers. Antwortzeiten im Rahmen der Volltextsuche innerhalb …
… DDR3 bringt die neue Speicherarchitektur mehr Leistung, Robustheit und Kontrollfeatures mit sich, während gleichzeitig der Energiebedarf gesenkt wird.
Das N12910 von Thecus® wurde entworfen, um den Anforderungen großer Firmen zu genügen, die über sehr große Datenmengen verfügen und unerschütterliche Leitung und Stabilität von ihren NAS erwarten. Mit seinem neuen Prozessor und der nächsten Generation DDR4 RAM, bietet das Thecus N12910 schnellere Zugriffszeiten und verbesserte Multitasking-Fähigkeiten. Es ist robust, schnell, erweiterbar und steht …
… transparentere Kommunikationskultur und schnellerer Wissenstransfer zwischen Abteilungen, Instanzen und Standorten ist entstanden.
Die Schuler AG geht mit der SharePoint-Kollaboration-Plattform zudem die ersten Schritte in Richtung smarter Geschäftsabläufe. Die strukturierte Vorgehensweise in der Projektentwicklung und die neuen Möglichkeiten – zum Beispiel auch große, wichtige Datenmengen zentral für Innovationsentwicklungen verfügbar zu halten – unterstützt die nachhaltige Umsetzung von vernetzten Prozessen als Bestandteil der digitalen Transformation.
… Textverarbeitung. Moderne Tabellenkalkulation inklusive Chartfunktionen gelingt mit Calc. Mit den zahlreichen Vorlagen in Impress entstehen beeindruckende Präsentationen. Für Organigramme und Ablaufpläne eignet sich das vektorbasierte Zeichenprogramm Draw. Die Datenbank Base stellt große Datenmengen etwa für Berichte zur Verfügung. Vom Formeleditor Math profitieren besonders die Autoren wissenschaftlicher Texte.
Highlights
- Perfect PDF® 9 Editor (32-/64-Bit Version)
- Unterstützung für PDF, PDF/A-1, PDF/A-2, PDF/A-3
und XPS-Dateien
- PDF-Dateien …
… Über eigene Lö-sungen für Stammdatenverwaltung und elektronischen Datenaustausch ist sichergestellt, dass kundenorientierte Prozesse auf einer soliden Datenbasis stattfinden. Dieses Zusammenwachsen der Prozesse ist elementarer Bestandteil der Digitalen Transformation, die sich auch der DSAG-Jahreskongress 2016 als Leitbild gesetzt hat. So war das Interesse am FIS-Stand groß, denn der SAP Goldpartner zeigte dort, wie Datenmengen beherrschbar werden und mit welchen Instrumenten sich aus Informationen Mehrwerte für das Business extrahieren lassen.
… Laptops können sich so an unterschiedlichen Standorten am Director anmelden. Ebenso können Daten von einem Client auf einen Bareos-Server bei einem Provider gesichert werden, ohne dass der Provider aktiven Zugriff auf die Kundensysteme hat.
Für Anwender mit sehr großen Datenmengen ist das neue Feature “Always Incremental” von besonderem Interesse: die Zeit- und Bandbreiten-intensiven Voll-Backups werden so nur noch einmal benötigt. Anschließend werden nur noch die inkrementellen Daten zum Bareos Server übertragen. Neu ist, dass nun auf dem Server …
… Vertriebsaktivitäten bei Firmenkunden, zum Beispiel Gesundheitstage
Da das Pega-GKV-Vertriebsmodul auf der Pega-7-Plattform aufbaut, können Anwender auch die mobile Funktionalität von Pega 7 einsetzen. Das Pega-GKV-Vertriebsmodul unterstützt auch den Zugriff auf große Datenmengen wie Mitglieder- oder Interessenten-Listen. Das GKV-Vertriebsmodul kann optional durch das separate Modul Pega Marketing ergänzt werden.
"Im Pega-GKV-Vertriebsmodul sind zehn Jahre Erfahrung bei der Entwicklung von Vertriebs-Anwendungen für weltweit führende Unternehmen …
… Knie gehen.
Genau wie die Rechenleistung ist auch der Speicherplatz auf dem Server eine endliche Ressource. Unternehmen, die auf ihrer Webseite den Upload von Dateien erlauben, müssen deshalb ein paar Barrieren einbauen, damit Cyberkriminelle durch das Hochladen von riesigen Datenmengen nicht die Kapazität des Speicherplatzes überschreiten und den Server so zum Absturz bringen. Abhilfe schafft hier eine Limitierung der hochgeladenen Datei auf eine bestimmte Größe. Wenn das System diese Funktion nicht unterstützt, kann auch die Verwendung eines Captcha …
… die IT-System-Management-Lösung von Würth Phoenix, ist nun in Version 3.8 verfügbar. Neben wichtigen Verbesserungen in den Bereichen Discovery und Asset Management wurde NetEye vor allem um neue Möglichkeiten zur Erkennung von Mustern und Trends in großen Datenmengen erweitert. Zudem bringt der Release von Alyvix 2.3 neue, in NetEye integrierbare Features zur Überwachung der End User Experience.
Mit dem neuen NetEye-Release werden nicht nur zahlreiche Funktionen signifikant verbessert. Die aktuelle Version der System-Management-Lösung erlaubt nun …
… Versand. Es ist jedoch immer ein enormer Vorteil, wenn man zwei Computer besitzt. Irgendwann fällt einer wegen Defekte oder Viren aus oder wird mit neuer Software aufgesetzt, die vielleicht bockt. Man hat immer noch ein funktionierendes Reservegerät. Wer regelmäßig große Datenmengen aus dem Web zieht, sollte ebenfalls mit zwei Rechnern arbeiten, damit einer zum flüssigen Arbeiten verbleibt.
Mit IT Versand ist das Notebook nicht nur erschwinglich, es wird zudem Qualität geboten. Die Einkäufer achten sehr darauf, dass sie Technikartikel auswählen, …
• In-Memory-Technik ermöglicht Datenanalyse in Echtzeit
• Software beschleunigt intralogistische Prozesse
• Dematic-Produkte sind mit SAP HANA kompatibel
Heusenstamm, 25. August 2016 – Die Analyse großer Datenmengen ist für viele Unternehmen eine große Herausforderung. Deshalb bietet die Dematic GmbH ihren Kunden Intralogistiklösungen auf Basis der Hochleistungsdatenbank SAP HANA an. Durch diese Software verkürzen sich die Prozesse in der Lagerlogistik deutlich, da die In-Memory-Technik eine Analyse großer Datenmengen in Echtzeit erlaubt. Alle Produkte, …
… Unterstützung für Intel® Xeon® E5-2600 V3/V4 (Haswell) Prozessoren überzeugt das neue Mainboard mit starker Rechen- und Speicherleistung sowie mit einem ultraschnellen Datendurchsatz. In Kombination mit dem Intel® C612 Chipsatz ist das
N50D-FN bereit für sehr große Datenmengen, intensive Datenverarbeitungsprozesse und andere Speicheranwendungen im Serverbetrieb.
Das neue Mainboard zeichnet sich auch bei hoher Auslastung durch Effizienz, Sicherheit sowie Stabilität aus. Es ist über den Distributor Concept International zu einem Preis von 480 Euro …
… die meisten Nutzer auch gut informiert: die reine Desktopanwendungen arbeiten unabhängig von Internet- oder Netzwerkverbindung, dafür sind sie immer nur an einen Rechner gebunden. Man muss sie auf jedem Rechner installieren, aktualisieren und pflegen.
Bei den heute üblichen Datenmengen stoßen die lokalen Geräte sehr schnell an ihre Grenzen. Client-Server Lösungen dagegen erledigen nur noch ein Teil der Aufgaben auf dem persönlichen Rechner, der größte Teil wird auf dem Netzwerk-Server gemacht. Mit diese Art der Software-Architektur lassen sich …
… Platform (MIP) für die Kommunikation und den Datenaustausch an das hauseigene Hochleistungssystem emMida gekoppelt. Die eBay Merchant Integration Plattform steht für die zuverlässige und konstante Leistung bei der Übertragung besonders großer Datenmengen.
Erfolgreiche Zusammenarbeit
Click & Collect-Integration für bessere Verzahnung der Vertriebskanäle
„Als Omni-Channel-Händler haben wir verschiedene IT-Systeme im Einsatz. Umso wichtiger ist es, diese sicher und performant miteinander zu verzahnen.“, berichtet Udo Anzer, Filialorganisation …
… von Pogoplug (https://pogoplug.com). Auch ein Fernzugriff auf die Festplatte ist bei einigen Modellen möglich.
Die Cloud scheint auf den ersten Blick als der perfekte Aufbewahrungsort für Fotos und Filme. Bei genauerer Betrachtung aber verliert sie an Glanz: um größere Datenmengen in die Cloud zu kopieren, benötigen Anwender eine schnelle Internet-Verbindung – die auf Reisen aber nicht jederzeit und überall verfügbar ist, auch nicht in hoch technisierten Ländern.
Ein anderes Problem stellt die Sicherheit dar. Zwar lässt sich Cloud-Speicher nicht …
… Unternehmen hier immer noch zögerlich sind, ihre sensiblen, für Auswertungen relevanten Daten in die Cloud zu legen.“
Keine Performance-Garantie über die Cloud
Ein anderer Nachteil der Cloud sind Performance-Probleme, die etwa beim Verschieben von großen Datenmengen auftreten. „Im Gegensatz zu einem operationalen System, das nur nacheinander Transaktionen abwickelt, sind Data-Warehouse- und auch künftige Big-Data-Anwendungen nach wie vor stark Input/Output-lastig“, erklärt Flade-Ruf. „Beim Thema Cloud und Übertragungsgeschwindigkeit sind wir in …
… Letzterer kann auf bis zu 8 GByte erweitert werden. Dieses neue 4-Bay-NAS zum attraktiven Preis kann mit bis zu 40 TByte Speicherplatz ausgestattet werden, was das N4810 zur idealen Lösung für Zuhause und kleine Büros macht, wenn man große Datenmengen sicher in der eigenen, persönlichen Cloud speichern und das NAS gleichzeitig als Multimedia-Center für hochauflösende Filme nutzen will.
Da das N4810 auf der Hardware des kleinen Bruders, dem N2810PRO, aufbaut, bekommen Anwender die gleiche Umgebung für umfassendes Multimedia-Entertainment. Diese NAS …