… passive Kameraströme durch Edge Inference, erklärbare Ausgaben und auditierbare Entscheidungswege in operative Ereignisse umzuwandeln, anstatt Material nur zu speichern oder unkontrollierte Warnmeldungen zu erzeugen.In vielen Bereichen erzeugen Sicherheitssysteme heute wachsende Datenmengen, ohne gleichzeitig echte Klarheit zu liefern. Fehlalarme, fragmentiertes Monitoring, verzögerte Eskalationswege und nicht verbundene Technologien führen weiterhin zu vermeidbaren Risiken.DARLOT Security begegnet dieser Herausforderung mit einer Architektur, die auf …
… Einsparpotenzial entsteht.Der PC als Finanzzentrale für Menschen, die ihre Daten selbst steuern möchtenMit der Windows-Version positioniert sich MyMicroBalance als Finanzzentrale für den Schreibtisch. Der PC eignet sich besonders für den strukturierten Überblick: größere Datenmengen importieren, Kategorien sauber pflegen, Jahresübersichten analysieren und langfristige Budgets planen. Der neue CSV-Import passt genau in dieses Nutzungsszenario, weil er aus Bankexporten verwertbare Finanzdaten macht, ohne den Anwender aus dem Entscheidungsprozess zu …
… ihre Personalabrechnung effizient und zukunftssicher zu gestalten.
Digitale Transformation der Lohn- und Gehaltsabrechnung
Die klassische Lohnabrechnung gehört längst der Vergangenheit an. Digitale Systeme wie SAP Payroll ermöglichen eine automatisierte Verarbeitung großer Datenmengen und reduzieren Fehlerquellen erheblich. Durch die Integration in bestehende HR-Systemlandschaften lassen sich Prozesse nahtlos verbinden - von der Zeiterfassung bis zur Auszahlung.
Unternehmen profitieren insbesondere von der Möglichkeit, individuelle Abrechnungsregeln …
… Cyberangriffen unangetastet bleibt.Ein besonderer Baustein ist der sogenannte „Tape Taxi“-Service: Im Ernstfall können Daten physisch bereitgestellt und unabhängig von Netzwerkverbindungen zum Kunden transportiert werden. Dies ermöglicht nicht nur eine schnelle Wiederherstellung großer Datenmengen, sondern stellt auch in Krisenszenarien die Verfügbarkeit sicher.„Cyber-Resilienz endet nicht bei der Prävention. Entscheidend ist die Fähigkeit, Systeme und Daten nach einem Angriff schnell und vollständig wiederherzustellen“, erklärt CyProtect. „Mit Resilient …
… basieren, arbeitet MDR mit verhaltensbasierten Analysen. Dadurch können auch neue oder bislang unbekannte Angriffsmethoden erkannt werden.Ein wichtiger Bestandteil von MDR ist die Kombination aus automatisierter Technologie und menschlicher Expertise. Sicherheitssysteme analysieren große Datenmengen in Echtzeit, während erfahrene Analysten die Ergebnisse bewerten und im Bedarfsfall Maßnahmen einleiten. So entsteht ein Sicherheitsansatz, der sowohl effizient als auch zuverlässig arbeitet und Unternehmen einen besseren Überblick über ihre Sicherheitslage …
Personalabteilungen stehen zunehmend unter Druck: Sie müssen qualifizierte Talente finden, gleichzeitig jedoch strenge Compliance‑Vorgaben einhalten und steigende Datenmengen verarbeiten. Viele Unternehmen im DACH‑Raum setzen daher auf automatisierte Screening‑Prozesse, die HR‑Teams deutlich entlasten. Validato hat ein System entwickelt, das alle relevanten Prüfschritte digital steuert und administrative Aufgaben automatisiert.Sobald ein Screening ausgelöst wird, übernimmt die Plattform die gesamte Kommunikation mit den Bewerbenden, erinnert an fehlende …
… extrem dünnen Halbleiterschichten oder mit zweidimensionalen Materialien wie Graphen. „Durch die Integration spezieller KI-Hardware werden diese Hochleistungssensoren noch leistungsfähiger“, erklärt Dr. Bablich. „Sie erhalten quasi ein integriertes kleines Gehirn, das die riesigen Datenmengen der 3D-Bildpunkte oder Graphen-Schichten in Sekundenbruchteilen direkt vor Ort auswertet.“ So entstehen extrem kompakte Systeme, die die Umwelt in präziser 3D-Tiefe wahrnehmen und die gewonnenen Informationen unmittelbar interpretieren. Einsatzbereiche sind etwa …
… die Qualität der Wissensvermittlung durch kleine Gruppengrößen und interaktive Elemente hoch bleibt. Wer seine Excel-Skills bei hansesoft schärft, investiert nicht nur in ein Programm, sondern in seine eigene Arbeitszeit-Souveränität und die Fähigkeit, auch bei großen Datenmengen stets den Überblick zu behalten. hansesoft macht Teams flott für die tägliche Arbeit: Wir bieten professionelle Seminare zu allen wichtigen MS Office-Programmen und entwickeln maßgeschneiderte Konzepte für BI und Software-Migrationen. Als Ihr strategischer Berater optimieren …
… zu 5 Gbit/sUnterstützung für Solid-State-Laufwerke (SSD)Benutzer müssen eine kompatible M.2 2280 PCIe Gen3- bis Gen5-SSD erwerben und installieren.Die SSD wird nur im LA/PA-Logger-Modus verwendet, und ihr Dateisystem nutzt die Microsoft exFAT-Technologie zur Speicherung großer Datenmengen.8-Kanal-Exerciser-POD-Optionen: MIPI I3C, I2C, UART, SPIKann Protokollsignale auf bis zu 8 Kanälen simulieren und lässt sich entweder als Controller oder als Zielgerät konfigurieren.Die Topologie der internen Geräte kann bearbeitet werden, wobei jedes Gerät über …
… Aufbau aus wenigen klaren Schritten: Export der Daten, Installation von Ollama, Start einer Vektordatenbank wie Qdrant und Ausführen eines Skripts zur Verarbeitung. Der eigentliche Zeitfaktor liegt weniger in der Einrichtung, sondern in der initialen Verarbeitung großer Datenmengen. Ist diese einmal abgeschlossen, steht ein dauerhaft nutzbares System zur Verfügung. Für technisch interessierte Anwender ist das längst keine Spielerei mehr, sondern ein stabil nutzbares Werkzeug.Kann ich den ChatGPT-Datenexport auch ohne Bezahlversion nutzen oder ist …
… werden und welche Informationen die Systeme verlassen. Lokale KI-Plattformen ermöglichen eine klar kontrollierbare Datenverarbeitung innerhalb der eigenen Infrastruktur.Ein weiterer Vorteil liegt in der Performance. Besonders bei Retrieval-Augmented Generation (RAG) entstehen große Datenmengen pro Anfrage. Jede externe API-Kommunikation erhöht die Latenz. Lokale Inferenz kann Antwortzeiten stabilisieren und die Integration in interne Systeme erleichtern.Auch wirtschaftliche Aspekte spielen eine Rolle. Während Cloud-LLM-Dienste bei sporadischer Nutzung …
… nutzen: Statt Daten nur zu speichern, werden sie analysierbar und für kontinuierliche Verbesserungsprozesse nutzbar.Warum das Thema jetzt an Relevanz gewinntDie zunehmende Digitalisierung der Fertigung – Stichwort Industrie 4.0 – erzeugt immer größere Datenmengen auf dem Shopfloor. Gleichzeitig steigen die regulatorischen Anforderungen an Rückverfolgbarkeit und Dokumentation. Unternehmen, die ihre Prozessdaten nicht unabhängig und zentral verwalten, riskieren nicht nur Qualitätsprobleme, sondern auch Schwierigkeiten bei Audits und Kundenanforderungen.Softwarelösungen …
… Marktplatz ist für verschiedenste Akteure interessant: Vom Autohaus bis hin zum Großhändler oder Hersteller für Autoteile und Zubehör. Mitunter geht es um große Sortimente von mehreren hunderttausend Artikeln. Deren spezielle Datenstrukturen und teils große Datenmengen wollen gemanagt werden. Hier zeigt unsere Software ihre besondere Stärke in punkto Präzision und Performance.“Speed4Trade Connect fungiert als Steuerzentrale für Online-Plattformen wie Amazon, Ebay oder Autodoc Marketplace. Nähere Informationen zur neuen Autodoc-Anbindung erhalten …
… auf die wachsenden Anforderungen an Datenschutz, Informationssicherheit und gesetzliche Vorgaben wie die DSGVO und die NIS2-Richtlinie, die für alle datenverarbeitenden Stellen verpflichtend sind.
Insbesondere in einer internationalen Metropole wie Wien, in der täglich hohe Datenmengen verarbeitet und gespeichert werden, ist die fachgerechte und rechtskonforme Vernichtung sensibler Informationen ein zentrales Anliegen. Die unsachgemäße Entsorgung von Datenträgern birgt nicht nur erhebliche Risiken für den Verlust vertraulicher Daten, sondern kann …
… Produkten in 18 Sprachen, stand vor einer doppelten Herausforderung: Das bestehende DAM-System erreichte sein Lizenzende - zeitgleich zur kritischen Katalogproduktion im November 2025. Ein Verschieben war keine Option.
Projektdimensionen
In einer Projektlaufzeit von sechs Monaten wurde folgende Datenmengen migriert:
- 4,8 Millionen Assets
- 50 Millionen Derivate und Renditions
- 10 Terabyte Datenvolumen
- Integration von 1,5 Mio. Produkten
- Bis zu 500 Millionen API-Requests pro Monat
Die neue Lösung auf Basis von Adobe Experience Manager Assets musste …
… Datenwiederherstellung möglich sind. Die Spezialisten betonen, dass Ausreden wie „Datenrettung nach Ransomware sei nicht möglich“ längst überholt sind. Mit modernster Methodik, rechtssicherer Beweissicherung und Erfahrung aus über hundert komplexen Vorfällen werden auch große Datenmengen wie beim Fall eines gehackten Automobilzulieferers wieder verfügbar gemacht – mit nachweislich minimaler Ausfallzeit.Vernetzte Prävention: SIRIS Backup Check ab September 2025Mit Blick auf zukünftige Entwicklungen setzt Digital Recovery PHD GmbH gezielt auf Prävention …
Die Auswahl eines passenden Product-Information-Management-Systems (PIM) ist für viele Unternehmen ein entscheidender Schritt in ihrer Digitalstrategie. Angesichts zahlreicher Anbieter, komplexer Anforderungen und wachsender Datenmengen fällt es jedoch oft schwer, die richtige Lösung zu identifizieren. Mit einem spezialisierten Beratungsangebot unterstützt pörtner consulting Unternehmen dabei, strukturiert und unabhängig die passende PIM-Software auszuwählen und eine fundierte Investitionsentscheidung zu treffen.Ein Product Information Management …
… verstehen, Risiken gezielt zu bewerten und fundierte Entscheidungen im operativen Alltag zu treffen.DMARC ist ein zentrales Instrument zum Schutz von E-Mail-Domänen vor Missbrauch und Spoofing. Viele Unternehmen stehen dabei vor derselben Herausforderung: DMARC-Reports liefern enorme Datenmengen, deren Auswertung zeitaufwendig ist und oft mehr Fragen aufwirft, als sie beantwortet. Mit 25Reports löst NoSpamProxy genau dieses Problem, indem DMARC-Reports automatisiert ausgewertet und dabei aus der Fülle an Informationen die wirklich relevanten Aspekte …
… in generiertem Code durch die kontrollierte Einbettung in Smart-Code. Anwendungsbeispiele reichen von Kundendienst-Apps für Handwerksbetriebe über Inventarverwaltung bis hin zu digitalen Fragebögen im Gesundheitsbereich. Die Plattform ist auf große Datenmengen ausgelegt und ermöglicht über offene Standards eine nahtlose Integration in bestehende Systemlandschaften.Vectorsoft plant, Smart-Code weiter auszubauen: Künftige Features umfassen die Generierung vollständiger Geschäftslogiken, tiefere Workflow-Integrationen und trainierbare KI-Modelle innerhalb …
… durch ein skalierbares Reporting-Modell mit hoher Informationsdichte zu ersetzen. Durch den Einsatz von Sternschemata und fortgeschrittenen DAX-Berechnungen wurde sichergestellt, dass die Analysen in den Bereichen Vertrieb, Einkauf und Lagerlogistik auch bei wachsenden Datenmengen performant bleiben. Synergie von Wissenschaft und WirtschaftDie Kooperation ermöglichte den Studierenden tiefe Einblicke in reale Projektstrukturen und moderne Industriestandards. Prof. Dr. Oliver Schwarz, Studiendekan an der Hochschule Heilbronn, zieht ein positives Fazit:„Die …
… praxisorientierten KI-Lösungen, speziell für mittelständische, wachstumsorientierte Unternehmen. Mit einem speziellen, täglichen Helfer, dem Aily Agent, dem KI-Berater von Lyranex, wird strategische Entscheidungsfindung in Unternehmen neu gedacht. Der KI-Agent analysiert große Datenmengen in Echtzeit und liefert fundierte Handlungsempfehlungen. Das Tool ermöglicht Datenanalyse in Echtzeit. Szenario- und Risikoanalyse, strategische Entscheidungsunterstützung, transparente und objektive Insights. Das System fungiert als digitaler Sparringspartner für Führungskräfte …
… dem Fokus auf zuverlässige Konnektivität begann, wurde konsequent zu umfassender Plattformkompetenz weiterentwickelt. Mit der OCMP (Omni Channel Management Platform) betreibt abl solutions heute leistungsfähige, hochverfügbare Software-as-a-Service Plattformen, die in realen Kundenumgebungen große Datenmengen verarbeiten – DSGVO-konform, strukturiert und sicher.Gerade diese Erfahrung aus dem Plattformbetrieb ist die Basis für den nächsten Schritt. IoT nicht als Bastelprojekt, sondern als skalierbares, professionelles System – mit klarer Governance, …
Die Erkenntnis ist nicht mehr neu: Industrielle Anwendungen gieren nach Rechenleistung am Netzwerkrand, dort, wo Daten entstehen. Echtzeitfähige KI-Systeme für Bildverarbeitung, Qualitätskontrolle oder autonome Maschinen sollen große Datenmengen direkt vor Ort auswerten. Das Umgehen von Cloud-Architekturen spart Zeit, Bandbreite und senkt Kosten. Allerdings stellen Edge-Anwendungen besondere Anforderungen: hohe Leistung bei begrenztem Platz, beständige Verfügbarkeit trotz Staub und Vibrationen sowie hohe Toleranz bei der Umgebungstemperatur. Genau …
… verlieren. Die Altdaten verschwinden nicht, sie werden sichtbar gemacht, strukturiert und zugänglich gehalten. Gleichzeitig wird das operative System befreit und kann wieder das tun, wofür es gedacht ist: schnell und zuverlässig arbeiten.Warum gerade jetzt der richtige Zeitpunkt istDie Datenmengen in der fertigenden Industrie verdoppeln sich alle zwei Jahre. Wer heute nicht handelt, kämpft morgen gegen einen doppelt so großen Wirbelsturm. Die Frage ist nicht, ob Sie Ihre Archivierungsstrategie überdenken müssen, sondern nur, wie viel es Sie kostet, …
… statt komplett neu bauenAus der Projektpraxis zeigt sich ein klares Muster. So wird Databricks in den meisten Projekten schrittweise eingeführt und ergänzt bestehende Datenlandschaften, ohne sie auf einen Schlag zu ersetzen oder radikal umzubauen. Neue Datenquellen, größere Datenmengen, Data Science oder AI-Anwendungen sind häufig der Einstieg.Schritt für Schritt entsteht daraus eine zentrale Datenbasis, die mehr kann als klassisches Reporting – ohne laufende Prozesse zu gefährden oder alles auf einmal verändern zu müssen.Warum Databricks gerade …
… zu sichern.Mit Version 9.1 profitieren Nutzer von der vollständigen 64-Bit-Unterstützung, die moderne Prozessorarchitekturen optimal ausnutzt. Die Hardware-beschleunigte CRC32-Berechnung über SSE4.2-Instruktionen sorgt für deutlich schnellere Datenverifizierung bei der Synchronisation großer Datenmengen. Die Beschränkung der Datenmenge pro Auftrag wurde aufgehoben, zudem wurden Code-Sicherheit und SSHFS-Support verbessert.„Mit Synchredible 9.1 setzen wir konsequent auf modernste Technologien. Die native 64-Bit-Unterstützung in Kombination mit Hardware-beschleunigter …
In Zeiten der digitalen Transformation sehen sich Unternehmen mit einer wahren Datenexplosion konfrontiert. Produktion und IT erzeugen täglich riesige Datenmengen, die es zu bewältigen gilt. Doch die bloße Anhäufung von Daten bringt keinen Mehrwert. Erst durch eine strategische Auswahl und strukturierte Archivierung werden Daten zu einem wertvollen Gut, das Unternehmen einen echten Wettbewerbsvorteil verschafft.Die Herausforderung besteht darin, die Balance zwischen der Speicherung großer Datenmengen und der schnellen Verfügbarkeit relevanter Informationen …
… kombinierbar. Der Workflow mit Softwareprodukten aus der Terrasolid Familie beginnt meist mit TerraScan. TerraScan verwaltet, verarbeitet und visualisiert alle Arten von Punktwolken. Die Anwendung bietet verschiedene Import- und Projektstrukturierungstools für sehr große Datenmengen. Zuverlässig und hochpräzise können mit diesem leistungsfähigen Tool komplexe Gebäude, Landschaften sowie Straßen- und Kabelnetze vermessen, vektorisiert und in 3D exakt modelliert werden. In Kombination mit zusätzlichen Terrasolid-Anwendungen wie TerraModeler, TerraMatch, …
Die digitale Transformation unserer Gesellschaft macht die Verarbeitung enormer Datenmengen nötig. Anwendungen, die mit Künstlicher Intelligenz stetig hinzulernen, erfordern ebenso eine gigantische Rechenleistung wie neue Technologien zur medizinischen Diagnose, die Steuerung von Industrierobotern oder innovative Technologien für sicheres autonomes Fahren. Dabei stoßen konventionelle Computerarchitekturen an Grenzen sowohl, was die Speichergeschwindigkeit betrifft, als auch beim Energiebedarf zur Berechnung der enormen Datenmengen.In der Forschungsgruppe …
… eingesetzt werden. So könnten diese verlässlichere Gesundheitsdaten liefern und frühzeitig auf Probleme hinweisen oder bei der bedarfsgerechten Dosierung von Medikamenten unterstützen. Auch im Bereich der KI-gestützten Medizin wäre ein Nutzen denkbar, denn hier sind wir auf große Datenmengen angewiesen, die wir mit diesen verbesserten Biosensoren erheben könnten.“Nicolas Plumeré sieht auch über die Medizin hinaus Potenzial für die Sensoren und arbeitet bereits daran, die Ergebnisse in die Praxis zu bringen. Auf Basis des Forschungsprojekts LiveSen-MAP …
… ihren Vortrag am 8. Dezember 2025 an der TU Berlin, in dem sie diese Zusammenhänge vertieft.Die Geoinformatikerin schildert, wie Spektralkameras und LiDAR-Sensoren selbst frühe Stresssignale von Pflanzen sichtbar machen und wie KI aus gewaltigen Datenmengen Muster erkennt: Dürre, Schädlingsbefall, Brandfolgen, Artenvielfalt. Die Kombination aus Messgeräten und Modellen erlaubt es, ganze Landschaften kontinuierlich zu beobachten – weit über das hinaus, was klassische Stichproben leisten können.Wallis berichtet zudem über aktuelle Forschungsprojekte:• KI-Recover: …
In modernen Produktionsumgebungen stehen Unternehmen vor der großen Herausforderung, enorme Datenmengen effizient zu nutzen und daraus schnelle, fundierte Entscheidungen abzuleiten. Klassische Produktionskontrollen beruhen häufig auf nachträglicher Auswertung: Zahlen, Berichte und Analysen vom Vortag bestimmen die Entscheidungen von heute. Dies führt nicht nur zu verzögerten Reaktionen auf Prozessabweichungen, sondern birgt auch das Risiko, wertvolle Chancen zur Optimierung zu verpassen und unnötige Kosten zu verursachen.Insbesondere Produktionsleiter …
… lassen, ohne dass bestehende Funktionen beeinträchtigt werden.
Neben der technischen Skalierbarkeit ist auch die Performance ein zentraler Faktor. Techwerk legt großen Wert darauf, dass Softwarelösungen schnell reagieren, auch bei steigender Nutzerzahl oder großen Datenmengen. Optimierte Schnittstellen, effiziente Datenverarbeitung und ein durchdachtes Caching sorgen dafür, dass Anwendungen zuverlässig funktionieren und die Nutzererfahrung nicht durch Wartezeiten oder Systemausfälle beeinträchtigt wird. Hohe Verfügbarkeit ist dabei nicht nur ein …
… sind bei Schraubprozessen exakte Prüfungen sowie eine vollständige Dokumentation erforderlich. Einzelne Verschraubungen müssen auch noch Jahre später nachvollziehbar sein.“, erklärt Ronny Böhler, Leiter Drehgestellmontage, Stadler Winterthur AG.Die bisherige Software des Werkzeugherstellers konnte die Datenmengen nicht effizient abbilden. „Vor der Einführung von PG arbeiteten wir mit tabellenbasierten Listen, die kaum zu überblicken waren. Viele Informationen waren vorhanden, aber für die tägliche Arbeit nicht relevant.“, so Böhler.Die PG-Lösung: …
… Fehlern, wenn Daten nicht zeitnah aktualisiert werden. Der Connector gleicht Bestände in kurzen Abständen ab, aktualisiert Produktinfos und sorgt dafür, dass neue Artikel im Shop auftauchen, sobald sie im Kassensystem angelegt wurden.
Stabilität auch bei großen Datenmengen
Die Lösung ist darauf ausgelegt, große Sortimente reibungslos zu verarbeiten. Import- und Exportprozesse laufen im Hintergrund, ohne bei höherem Aufkommen ins Stocken zu geraten. Selbst an umsatzstarken Tagen bleiben Bestände verlässlich auf dem neuesten Stand.
Einfache Einbindung …
… Universitäten aus ganz Deutschland kommen zusammen, um gemeinsam mit Professor Rudolf Lioutikov, Leiter des Intuitive Robots Lab des KIT, eine Woche lang intensiv an neuen Methoden für „Foundational Behavior Models“ (FBMs) zu arbeiten. Diese maschinellen Lernmodelle, die auf großen Datenmengen trainiert und später für spezielle Aufgaben angepasst werden, sollen Roboter befähigen, aus Sprache, Bildern und Bewegungen sinnvolles Verhalten abzuleiten. So können sie künftig etwa im Haushalt, in der Pflege oder in der Industrie flexibel und sicher mit Menschen …
… Speicherkosten in die Höhe schießen. Gleichzeitig vergeuden Mitarbeiter wertvolle Zeit bei der Suche nach Informationen und der Erstellung von Reports.Doch wie wird aus einer einfachen Datenbank ein heimlicher Kostentreiber? Die Antwort liegt in den ständig wachsenden Datenmengen. Im Zeitalter der Digitalisierung sammeln Unternehmen mehr Daten als je zuvor. Jeder Kundenkontakt, jeder Prozessschritt, jede Transaktion hinterlässt digitale Spuren, die sich in den Datenbanken ansammeln. Was zunächst wie ein wertvoller Datenschatz erscheint, entpuppt sich …
… Display-Diagonalen bis zu 28" und bis zu 4K Auflösung pro Bildschirm, ermöglicht die passive Beamsplitter-Technologie eine tageslichttaugliche und unerreicht kontrastreiche stereoskopische Darstellung von hochauflösenden GIS- und BIM-Modellen.Agisoft Metashape Pro verarbeitet sehr große Datenmengen zuverlässig und präzise und ist damit für viele Anwender zum unverzichtbaren Bestandteil ihrer Geodaten-Workflows geworden. Heute können UAS-Systeme Bildreihen mit mehreren tausend Aufnahmen und Auflösungen von 1cm und weniger erfassen. Im terrestrischen …
… seine Kooperationspartner aus der Chemie auf ihren Mikrochips einsetzen, lässt sich die Leistungsfähigkeit von optischen Sendersystemen mehr als verdoppeln, während der Energieverbrauch auf ein Zehntel sinkt. Das ist besonders wichtig für Rechenzentren und KI-Systeme, die riesige Datenmengen verarbeiten. Herkömmliche Systeme stoßen hier an ihre Grenzen – vor allem beim Energieverbrauch. Vom Labor in die Industrie: Start-ups setzen auf Koos’ TechnologieDie von Koos und seinem Team erarbeiteten Technologien kommen bereits in mehreren Start-ups zum …
Bielefeld (hsbi). Mit Hilfe von künstlicher Intelligenz (KI) analysieren große Unternehmen ihre großen Datenmengen (Big Data) und versuchen, einen Mehrwert aus diesen Daten zu schaffen. Kleine und mittlere Unternehmen (KMU) hingegen stellt der Einsatz von KI-Methoden vor Herausforderungen: Hier fehlen häufig Knowhow, die entsprechende Technologie oder die Infrastruktur. Zudem verfügen KMU im Vergleich zu großen Unternehmen oft über wesentlich kleinere Datenmengen, auch Small Data genannt. Eine Herausforderung, die die Hochschule Bielefeld (HSBI) …
… GPU-System wurden auch zusätzliche personelle Kapazitäten für die technische Betreuung geschaffen, geleitet von Prof. Dr. Christian Hänig. Dieses zentrale Modell spart Ressourcen: Nicht jede Arbeitsgruppe muss eigene Expertise aufbauen oder bei Fördermittelgebern beantragen.Datenmengen wachsen durch mehr ForschungsprojekteDer Bedarf für Hochleistungsrechnen ist in den vergangenen Jahren kontinuierlich gestiegen. Immer mehr Forschungsprojekte erzeugen große und komplexe Datenmengen, die mit herkömmlicher Infrastruktur kaum noch zu bewältigen sind. Das …
… Lizenzierungs- und Integrationsaspekten.PIM-Auswahl: Auf Basis des individuellen Anforderungsprofils erfolgt eine strukturierte Recherche und Bewertung geeigneter Systeme mit abschließender Präsentation der Ergebnisse.Warum gerade jetzt?In Zeiten wachsender Anforderungen an Produktinformationen, steigender Datenmengen und komplexer Omnichannel-Strategien gewinnt ein effizientes PIM-System zunehmend an Bedeutung. Unternehmen stehen vor der Herausforderung, ein zukunftssicheres und flexibles System zu wählen, das ihre digitalen Prozesse optimal unterstützt. …
… Roboter zukünftig auch in dynamischen Umfeldern selbstständig bewegen können. Der Schwerpunkt von SAIDE liegt auf der Entscheidungsunterstützung. Im Fokus stehen dabei Datenbanken, die die Grundlage für zahlreiche IT-Anwendungen bilden und die Verwaltung großer Datenmengen ermöglichen. Die Forschenden entwickeln verschiedene Methoden, um Datenbanken effizienter zu gestalten und neue Erkenntnisse aus bestehenden Datenmengen zu gewinnen.Alle drei Forschungsbereiche setzen dabei auf systemische KI – die Kombination verschiedener KI-Bausteine zu komplexen, …
… KI kann also destabilisierende Effekte haben, indem sie das Kampfgeschehen beschleunigt und Missbrauchspotenzial für böswillige Akteure bietet.Doch künstliche Intelligenz bietet auch Chancen. Etwa in der Verifikation von Rüstungskontrollabkommen könnte sie dazu dienen, große Datenmengen auszuwerten und die Maßnahmen damit effektiver zu machen.Schließlich wird künstliche Intelligenz selbst zum Gegenstand möglicher Konflikte, beispielsweise um die Ressourcen, die zur Herstellung der entsprechenden Chips benötigt werden. Der geopolitische Wettlauf um …
… simuliert die KI nur, wenn sie sagt, dass sie „chattet“. In Wahrheit hat sie überhaupt kein Verständnis davon, wohin sie mit ihren Sätzen zielt. Die künstliche Intelligenz ist auch keine Intelligenz, sondern ein Geflecht von Algorithmen, welches innerhalb von riesigen Datenmengen Muster erkennt. Dies kann sie so gut und in unglaublicher Geschwindigkeit und Menge, dass sie andauernd Muster findet, die Menschen übersehen. Mit ihnen generiert sie Texte auf der Basis mathematischer Modelle, in denen die Wahrscheinlichkeitsrechnung eine wichtige Rolle spielt. …
… großes Potenzial für die datengestützte Auswertung betriebswirtschaftlicher Faktoren sowie zur Umsetzung neuer Maßnahmen im Pflanzenanbau und im Tierwohl. Der Einsatz von Sensoren und Künstlicher Intelligenz (KI) ermöglicht die Erfassung und Analyse großer Datenmengen in Echtzeit. Gleichzeitig erfordert diese Entwicklung die Standardisierung von Datenformaten und Schnittstellen, um verschiedene Hard- und Softwareanwendungen kombinieren zu können. Die derzeitige Datenlandschaft ist fragmentiert und besteht häufig aus herstellergebundenen Ökosystemen. …
Stockelsdorf, 15. Oktober 2025 – Regulatorische Vorgaben, technologische Entwicklungen und wirtschaftliche Veränderungen stellen Unternehmen in allen Branchen vor neue Herausforderungen. Immer komplexere Compliance-Anforderungen, wachsende Datenmengen und volatile Lieferketten erfordern flexible, zuverlässige Lösungen, die Prozesse sichern und gleichzeitig neue Potenziale erschließen. Die Fluxcode GmbH zeigt, wie sich Wandel mit modularer Track-&-Trace-Software nicht nur meistern, sondern in echte Chancen verwandeln lässt – von Effizienzsteigerungen …
… Die zum 1. Oktober eingerichtete Professur wird Methoden des Maschinellen Lernens entwickeln und nutzen, um neuartige, datengetriebene Diagnose-, Prognose- und Therapiemöglichkeiten in der Onkologie und Hämatologie zu erforschen. Die KI-Methoden sollen trotz begrenzter Datenmengen, hoher biologischer Varianz und technischen Unterschieden zuverlässig eingesetzt werden können. Dazu gehören Modelle, die mit wenigen Beispielen lernen und ihre Vorhersagen so transparent machen, dass Ärzt*innen sie nachvollziehen und in ihre Entscheidungen einbeziehen …
In der digitalen Welt wachsen Datenmengen rasant. Viele Daten sind zu groß oder zu komplex für klassische Datenbanksysteme. Big-Data-Architekturen schaffen Abhilfe. Sie ermöglichen die Erfassung, Analyse und Nutzung umfangreicher Datenbestände, vor allem für Künstliche Intelligenz und Data Science. Was ist das Problem? Eine Voraussetzung für solche Architekturen ist eine skalierbare IT-Infrastruktur. Im Projekt BiT SEA-SH entwickeln die Technische Hochschule Lübeck, die Universität zu Lübeck, die Kontor Business IT GmbH und die Wirtschaftsförderung …