(openPR) Deep Tech Stars für Audatic GmbH, Gestalt Robotics GmbH, Industrial Analytics Berlin IAB GmbH, mediaire, Smart Cloud Farming GmbH und Visualix GmbH
Berlin. Die Gewinner des diesjährigen Deep Tech Awards stehen fest. Sie wurden gestern für ihre innovative und anwendungsorientierten Lösungen auf Soft- und/oder Hardwarebasis von der Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe und dem Verband der IT- und Internetwirtschaft, SIBB e.V., (www.sibb.de) mit insgesamt 60.000 Euro Preisgeld ausgezeichnet.
Der Preis wurde gestern Abend von Christian Rickerts, Staatssekretär Senatsverwaltung für Wirtschaft, Energie und Betriebe und den SIBB-Vorständen Thomas Schröter und Dirk Stocksmeier in den Räumen der Beta Systems Software AG in Berlin übergeben.
Christian Rickerts, Staatssekretär Senatsverwaltung für Wirtschaft, Energie und Betriebe: „Berlin hat weltweit eine enorme Strahlkraft als Digital- und Start-up-Metropole. Die Digitalwirtschaft wird immer wichtiger für Umsatz und Wertschöpfung in der Hauptstadt. Die Berliner Deep Tech Unternehmen sind durch ihre innovativen Lösungen wichtiger Treiber dieser Entwicklung. Mit unserem Deep Tech Award zeigen wir dieses Zukunftspotential Berlins.“
Thomas Schröter, Jurymitglied und Vorstandsvorsitzender des SIBB e.V. zum Wettbewerb: „70 eingegangene Bewerbungen des zum nunmehr vierten Mal ausgelobten Deep Tech Awards zeigen nicht nur die Wertschätzung für den attraktiven Preis, sondern auch die Potenz und Kompetenz der Berliner KMU´s in der Digitalwirtschaft. Für die Jury war die Wahl nicht einfach – Kopf an Kopf bewarben sich ausgereifte Technologien und in Berlin entwickelte Lösungen, die den internationalen Wettbewerb in den kommenden Jahren mitbestimmen wollen. Die Anwendungsbereiche sind dabei so vielfältig, wie die Prozesse, die sie mitzugestalten haben. Die Preisträger stehen vorbildgebend und beispielhaft für das Leistungspotential unserer IT-Wirtschaft der Bundeshauptstadt. Der Preis würdigt sie nicht nur öffentlich für ihre Innovation. Wir hoffen, ihnen mit der öffentlichen Wertschätzung auch weitere Türen in der Entwicklung ihrer Produkte und des Unternehmens zu öffnen.“
Die Fachjury aus Wirtschaft und Wissenschaft berücksichtigte bei ihrer Entscheidung für die Auswahl der Deep Tech Stars den Innovationsgrad und das Alleinstellungpotential der Lösungen als auch die Vorteile für die Nutzer und für den Berliner IKT-Markt.
Die Preisträger im Einzelnen:
Die Preisträgerin Audatic GmbH aus Berlin besteht aus jungen, internationalen und hervorragend ausgebildeten Fachkräften und bringt Erfahrungen und Ausbildungen von u.a. Google, McKinsey, University of Oxford, University California Berkeley und ETH Zürich mit. Elias Sprengel und Peter Diehl, die beiden Gründer von Audatic, lernten sich an der ETH Zürich kennen. Die Idee zur Zusammenarbeit an der Lösung des Problems der mangelhaften Filterung der Hintergrund -und Störgeräusche bei Hörgeräten, kam ihnen durch ihre Erfahrungen im Bereich der künstlichen Intelligenz und Deep Learning. Aufgrund des Kontaktes zu Betroffenen, der Begeisterung beider für Medizintechnik und dem Wunsch vielen Menschen zu einer verbesserten Kommunikationsmöglichkeit zu verhelfen, entstand schließlich ihr Startup. Seit Mai 2018 entwickelt das Team eine Software, die den Alltag von über 60 Millionen Hörgeräteträgern nachhaltig verbessern wird. Mit dieser Entwicklung will Audatic auch die Folgeerkrankungen, wie z.B. Depressionen, die leider häufig bei Menschen mit Hörschädigung auftreten, eindämmen.
Der preisgekrönte Wettbewerbsbeitrag:
Störende Geräusche sind für jeden Menschen anstrengend und stören die Konzentration. Normalerweise filtert das Gehirn diese Geräusche heraus, ohne dass es dem Einzelnen bewusst ist. Das Gehirn hat gelernt, unwichtige Geräusche zu erkennen und den Fokus auf die wichtigen zu legen. Trotzdem hört man diese Geräusche, wenn man sich darauf konzentriert. Entwickelt eine Person einen Hörschaden, werden alle Geräusche generell leiser und das Gehirn verlernt das automatische filtern, da die Geräusche aufgrund von Schäden im Ohr oder in der Wahrnehmung fehlen. In dem Fall, dass der Betroffene reagiert und sich ein kostenintensives Hörgerät anschafft, sind die Hintergrund-Geräusche unangenehm und teilweise sogar schmerzhaft. Das liegt nicht nur daran, dass das Gehirn wieder die Filterung erlernen muss, sondern auch daran, dass Hörgeräte diese störenden Hintergrundgeräusche ebenso laut verstärken wie die gewünschten Töne. Sprache und Restaurant-Lärm werden gleich verstärkt und das Ergebnis ist ein Gemurmel der vielen Betroffenen Kopfschmerzen und Müdigkeit beschert. Im Resultat tragen viele Betroffene ihre Hörgeräte nicht, denn sie sind mit der Leistung in lauten Umgebungen schlichtweg nicht zufrieden. Audatic nutzt neueste Entwicklungen im Bereich künstliche Intelligenz und Deep Learning, um Algorithmen zu trainieren, die Störgeräusche automatisch erkennen und herausfiltern. Das gesamte System funktioniert folgendermaßen: Die Software wird als Applikation auf ein Smartphone geladen. Da die Rechenprozesse zu umfangreich sind, um sie auf dem Hörgerät direkt zu berechnen muss ein Smartphone als Basis fungieren. Das ankommende Signal, beispielsweise eine Unterhaltung mit dem/der Partner/in in einem Restaurant inklusive aller anderen Geräusche (Kellner, Unterhaltungen anderer Gäste, Musik…) wird von dem Mikrofon des Smartphones erfasst. Die Software verarbeitet das Signal, filtert und trennt alle Geräusche. Die Geräusche, die die Software als relevant identifiziert (die Unterhaltung mit dem/der Partner/in) wird von den anderen Geräuschen getrennt. Nur die Unterhaltung wird dann von dem Smartphone auf das Hörgerät gestreamt. Das alles geschieht mit geringer Latenz, um die Lippenbewegungen des Gesprächspartners synchron zu dem Audio-Signal wiederzugeben. Insbesondere die Hörschädigung junger Menschen nimmt in den letzten Jahren zu und das Fehlen angemessener leistungsfähiger Produkte beschert diesen Patienten eine lange Leidenszeit. Durch verminderte Kommunikationsfähigkeit isolieren sich Betroffene jeglichen Alters häufig von ihrem sozialen Umfeld und vereinsamen, was zu Krankheiten wie Depression führt. Die Forschung hat sich in dem Bereich der Geräuschfilterung für Hörgeräte in den letzten Jahren kaum weiterentwickelt. Audatic möchte mit seiner Idee die neueste Technik nutzen und den Menschen einen normalen Alltag mit sozialer Interaktion und selbstbewusster Kommunikation ermöglichen.
Die Preisträgerin GESTALT Robotics GmbH wurde 2016 von Thomas Staufenbiel, Dr. Eugen Funk und Dr.-Ing. Jens Lambrecht gegründet. Die GESTALT Robotics ist Dienstleister für maßgeschneiderte Softwareentwicklung an der Schnittstelle von Automatisierungstechnik und Künstlicher Intelligenz (KI). Basierend auf der umfangreichen Erfahrung und Expertise des Kernteams bedient GESTALT Robotics den stetig wachsenden Bedarf an innovativen Automatisierungslösungen von Unternehmen aus verschiedenen Industriezweigen. Kern des Geschäftsmodells von GESTALT Robotics ist die projektbasierte Entwicklung von Software für die Bereiche Wahrnehmung, Kognition und Interaktion. Dabei stehen u.a. bewährte Methoden und Werkzeuge aus den Bereichen Objekterkennung, Semantische Segmentierung, Steuerungstechnik, Bahnplanung, gestenbasierte Interaktion sowie Visualisierungen und Interaktion in Augmented sowie Virtual Reality zur Verfügung. Das typische Produktangebot kennzeichnet die Entwicklung von speziellen Softwareservices oder umfangreichen Softwarelösungen auf Basis dieser Technologien. Neben der Entwicklung umfasst das Leistungsangebot Beratungstätigkeiten sowie die Unterstützung des Kunden nach Projektende durch Bereitstellung von Support.
Der preisgekrönte Wettbewerbsbeitrag:
Die GESTALT Robotics GmbH beschäftigt sich in einem Schwerpunkt mit der KI-unterstützten Objektklassifikation und Detektion auf Basis von Kameradaten in 2D und 3D. In diesem Technologiebereich hat die Nutzung von Deep Learning seit 2012 große Fortschritte hinsichtlich Robustheit und Zuverlässigkeit gebracht und gehört mittlerweile zum Stand der Technik. Ein signifikanter Nachteil der Deep-Learning-Technologie ist allerdings der hohe Bedarf an Daten zum Training der neuronalen Netze. Dieser Datenhunger macht die industrielle Einsetzbarkeit, gerade bei Erkennungsaufgaben mit wechselnden Produkten, ineffizient und oft nicht wirtschaftlich. Auf Basis intensiver Forschungs- und Entwicklungsarbeiten im Laufe des letzten Jahres hat die GESTALT Robotics das EPIC-System entwickelt, das eine dateneffiziente Nutzung der Deep-Learning-Technologie für die vollautomatische visuelle Erkennung von Waren- und Produkten ermöglicht. EPIC steht für “Efficient Pipeline for Inventory Classification” und ist ein System zur vollautomatischen Erkennung von Objekten, Bauteilen und Produkten aus Bilddaten. Die Besonderheit des Systems liegt in der Fähigkeit neue, ungesehene Objekte daten- und zeiteffizient anzulernen. Das EPIC-System kann Objekte in Farbbildern wiedererkennen, deren Referenzbilder in einer Datenbank abgelegt worden sind. EPIC ist fähig, neue, ungesehene Objekte zu erkennen. Dazu muss eine kleine Anzahl von Bildern (< 10) aufgenommen aus verschiedenen Perspektiven in die Datenbank hinzugefügt werden. Der Erkennungsalgorithmus basiert auf Methoden des Deep Metric Learning, die bereits erfolgreich zur Identifikation von Personen aus einer Menge von Individuen verwendet worden sind. EPIC überführt dazu jedes Bild in eine Repräsentation, dem sogenannten Feature-Vektor, die speichereffizient und invariant zu Veränderungen von Umgebungsbeleuchtung, Objektpose und partieller Verdeckung ist. Der Feature-Vektor stellt sozusagen den Fingerabdruck des Objektes dar. Bilder desselben Objektes aufgenommen aus verschiedenen Umgebungskonfigurationen haben somit ähnliche Feature-Vektoren. Um ein Objekt im aktuellen Kamerabild zu erkennen, wird dessen Feature-Vektor berechnet und mittels effizienter Vergleichsalgorithmen mit allen Feature-Vektoren in der Datenbank verglichen. Die am nächsten liegenden Feature-Vektoren repräsentieren das erkannte Objekt. Somit kann EPIC ein Objekt aus einer Menge von tausenden identifizieren. Anwendung findet das EPIC-System zunächst zur automatischen Warenstands- und Materialflussüberwachung von Lagerräumen in der Industrie. Über eine zugehörige Web-Plattform mit Dashboard kann der Warenstand und Materialfluss durch den Nutzer überwacht werden. Zusätzlich lassen sich gängige ERP-Systeme verbinden und Daten mit diesen abgleichen. Der Systemaufbau ist grundlegend modular und lässt sich sowohl als Low-Cost-Variante ausschließlich über Embedded-Hardware oder auch als hoch-skalierbare Lösung über Cloud-Services realisieren.
Der Preisträger Industrial Analytics wurde von Ingenieuren gegründet, die mehr als fünf Jahre in der Forschung und Entwicklung bei einem Maschinenhersteller arbeiteten, wo von ihnen Designtools und Teststände entwickelt wurden, sodass der Spezifikationsaufwand seitens der Maschinenbetreiber nun sehr niedrig ausfallen kann. Es gibt eine enge Zusammenarbeit mit dem Hasso-Plattner-Institut, um die neuesten Erkenntnisse auf dem Gebiet der künstlichen Intelligenz in das Produkt zu integrieren.
Der preisgekrönte Wettbewerbsbeitrag:
Der TurboMonitor ist ein wichtiger Beitrag zur Automatisierung industrieller Anlagen und zur Reduzierung von Betriebskosten und Stillständen in den Bereichen Chemie, Öl & Gas, Raffinerien, Kraftwerken, etc. Industrial Analytics realisiert gemeinsam mit dem Kunden zunächst ein Projekt zur Integration moderner industrieller IoT Technologien (Fog Computing) für die Überwachung von Maschinen und Anlagen. Im Anschluss an das Implementierungsprojekt werden die verwendeten Softwarekomponenten lizenziert, und es wird ein Servicevertrag für die Überwachung der Anlagen abgeschlossen. Die vertikale Lösung insbesondere für große Turbomaschinen deckt sowohl die Datenerfassung und Vorverarbeitung ab als auch die Integration in eine oftmals vorhandene IoT Plattform (SAP Asset Management, IBM Watson IoT, Siemens Mindsphere, OSIsoft PI System, etc.) und die Auswertung der Daten. Die Betreiber senken mit dem TurboMonitor ihre Betriebskosten durch – reduzierten Personaleinsatz durch verbesserte Zustandsinformationen - eine Reduzierung von ungeplanten Stillständen und damit verbundenen Produktionsausfällen, - eine optimierte und gezielte Wartung mit einer Verlängerung der Wartungszyklen, - Effizienz- und Flexibilitätssteigerungen durch Performancemonitoring und eine verbesserte Regelung. Im Gegensatz zu anderen am Markt erhältlichen Lösungen bietet der TurboMonitor von Industrial Analytics folgende Vorteile: Er stellt die komplette Kette von Datenerfassung über Datenvorverarbeitung bis zur Analyse zur Verfügung, Monitoring as a Service mit hohem Automatisierungsgrad, Produktivitätssteigerung durch effiziente Überwachungslösung (Datenaggregation und extrem wenig Fehlalarme), externe Expertise für die Betreiber durch Experten in Turbomaschinen.KI Industrial Analytics hat 2018 mit dem TurboMonitor bereits bei der Siemens Mindsphere Developer Challenge gewonnen. Der TurboMonitor ist bereits bei drei namhaften Kunden in den Kernmärkten Chemie, Öl und Gas sowie Versorger im Einsatz.
Die Preisträgerin mediaire GmbH wurde im April 2018 gegründet. Das interdisziplinäre Gründerteam besteht aus zwei Medizin-Physikern, die nach ihrer Promotion in der Industrie als Softwareentwickler und Machine-Learning-Experten tätig waren, zwei niedergelassenen Radiologen mit eigenen radiologische Praxen und einem erfahrenen Business Angel. Die Finanzierung der mediaire ist durch einen Mix aus Eigenkapital und Fördermitteln des Landes Berlin mittelfristig gesichert. Das erste Produkt md.Brain zur quantitativen Analyse der Hirnregionen zur Unterstützung der Diagnose von neurodegenerativen Erkrankungen wurde im Januar 2019 erfolgreich als Medizinprodukt zertifiziert. mediaire entwickelt und vertreibt Software zur computergestützten Diagnose von medizinischen Bilddaten. Das Unternehmen ist angetreten, die Befundungsqualität und Geschwindigkeit innerhalb der Radiologie durch den Einsatz Künstlicher Intelligenz (KI), ein innovatives Datensicherheitskonzept und ein kundenorientiertes Leistungsangebot nachhaltig zu verbessern. Primäre Zielkunden sind radiologische Einrichtungen, die einen hohen Bedarf an leistungsfähiger Software besitzen, um die Diagnosegenerierung zu beschleunigen, Fachpersonal zu entlasten und Fehler im Befund zu vermeiden. Die Software ist aufgrund der strengen Datenschutzbestimmungen im Gesundheitswesen auf der vor Ort vorhanden IT-Infrastruktur lauffähig, und sensible Patientendaten müssen im Gegensatz zu konkurrierenden Cloud-Lösungen die Praxis nicht verlassen.
Der preisgekrönte Wettbewerbsbeitrag:
Kürzlich wurde ein Fall im Krankenhaus von Porthsmouth, Großbritannien bekannt, bei dem Patienten falsch oder viel zu spät behandelt wurden, weil die radiologische Abteilung einen Rückstand von 23.000 noch nicht bearbeiteten Patientenbildern hatte. Dies verdeutlicht ein Grundproblem der Radiologie: Es müssen immer mehr Bilder aufgrund höherer Patientenzahlen und höherer Auflösung der Geräte analysiert werden und gleichzeitig besteht ein Mangel an gut ausgebildeten Radiologen. Im Ergebnis stehen einem Radiologen im Durchschnitt nur 3 Sekunden an Diagnosezeit pro Bild zur Verfügung. Dies führt zwangsläufig dazu, dass die Diagnosequalität durch die vorhandene Überforderung des Menschen eher abnimmt, anstatt auf Basis technischer Entwicklung besser zu werden und schneller zu erfolgen. Prinzipiell könnten Methoden der KI zu einer signifikanten Verbesserung dieses Zustands führen, jedoch stehen ihrem weiten Einsatz auch einige Hürden im Weg, wie z. B. die geringe Anzahl an verfügbaren annotierten Daten, der Black-Box-Charakter beim Deep-Learning (DL) und die regulatorischen Anforderungen an ein Medizinprodukt. Das nächste Ziel der mediare besteht daher in der Entwicklung von md.Brain Diagnostics, eines KI-basierten Diagnose-Report-Systems für neurodegenerative Erkrankungen, das dem Radiologen eine sofortige, übersichtliche Aufbereitung aller relevanten Bildinformationen samt Diagnose-Report ermöglichen wird. Der Radiologe kann sich somit auf seine Kernaufgabe konzentrieren und die von der mediaire-Software getroffenen Schlüsse verifizieren oder modifizieren (‘Augmented Radiology’). Hierdurch werden bestehende Bedenken gegenüber der KI abgebaut. Die Produktivität und Qualität der Diagnose steigt, was letztlich den Patienten zum größten Gewinner der Anwendung von KI macht. Diese sehr forschungsintensive und komplexe Lösung entsteht auf Basis des bereits entwickelten und zertifizierten Produkts md.Brain, um eine möglichst erfolgreiche und rasche Umsetzung zu erzielen. Dabei kann das Gerüst des etablierten lokalen Datentransfers, die annotierte und stetig wachsende Datenbank, die Ergebnisse der quantitativen Volumetrieberechnung samt Qualitätssicherungsmaßnahmen und vor allem die Expertise in der Anwendung von modernen DL-Verfahren auf medizinischen Bilddaten eingesetzt werden. Perspektivisch soll das prinzipielle Vorgehen auf weitere Organe ausgeweitet und damit das Produktportfolio sukzessive ergänzt werden.
Die Preisträgerin SmartCloudFarming GmbH (SCF) ist seit 2017 ein Startup aus dem Bereich der digitalen Präzisionslandwirtschaft mit Sitz in Berlin. SCF wurde über ein EXIST-Stipendium des BMWi finanziert und mit Preisen für Gründung und Nachhaltigkeit ausgezeichnet. Insgesamt wurden bereits 161.000 € akquiriert. Außerdem ist SCF Teil des Copernicus-Accelerators der Europäischen Weltraumorganisation sowie des Seedhouse-Accelerators, einem Farm-Hub in Osnabrück. Dem dreiköpfigen Gründerteam gehört M.Sc. Michele Bandecchi, M.Sc. Dr. Bastian Kubsch und Tarun Garg an. Das Gründerteam wird durch ein Team freiberuflicher Boden- und Fernerkundungsexperten komplementiert. SCF plant und setzt derzeit den Markteinstieg im Segment der Präzisionsbewässerung in Italien um. SCF entwickelt ein Werkzeug für die Beobachtung von Ackerböden durch die 3D-Brille. 3D-Bodenkarten, die die Bodeneigenschaften widergeben, dienen als Grundlage für eine optimale Bodenbewirtschaftung. Das verkaufte Produkt ist eine Kombination aus Bodensensorik und satellitengestützter Software für Landwirte und landwirtschaftliche Genossenschaften.
Der preisgekrönte Wettbewerbsbeitrag:
SCF entwickelt seine cloud-basierte künstliche Intelligenz (KI) – SoilEye, um 3D-Bodenkarten für die Ackerbodencharakterisierung zu generieren. Hierfür korrelieren SCF’s KI-Algorithmen Messdaten von Bodensensoren, die in den Boden integriert sind, mit Satellitendaten, die Rückschlüsse über den Bodenzustand zulassen. Die 3D-Bodenkarten erreichen eine 2D-Flächenauflösung von < 1 ha und Tiefen bis 90 cm, mit Genauigkeiten von > 95 %. Dieser Ansatz ist für die Bestimmung jedes Bodenparameters möglich, der am Boden gemessen werden kann, u.a. für die Bestimmung von Nährstoffgehalten im Boden. Aus Gründen der schnelleren Umsetzbarkeit wird SoilEye für die Bestimmung der Bodenfeuchtigkeit trainiert, um damit in den Markt einzusteigen. Es entstehen 3D-Bodenkarten des Bodenfeuchtigkeitsgehalts (BFG), die für die Präzisionsbewässerung (PBW) eingesetzt werden können und Landwirten zusätzliche Umsätze von bis zu 7000 €/ha/Jahr im Premiumsegment ermöglichen. SoilEye ist ein kombiniertes Hardware/Software-Produkt, das an Landwirte und Landwirtschaftsgenossenschaften verkauft wird. Es besteht aus einem Satz von BFG-Sensoren, der eine Dichte von 1 Sensor/~15 ha am Einsatzort gewährleistet, und aus einem cloud-basierten KI-Modul. Die gesamte Datenanalyse läuft ohne Zutun des Landwirts im Hintergrund und ist durch die Bodensensoren auf seine individuellen Bodeneigenschaften zugeschnitten. Ausgegeben werden dem Landwirt Bewässerungsempfehlungen per Text-Nachricht (SMS/WhatsApp; siehe Anhang). Die Hinzunahme von hydrologischen und Wettermodellen ermöglicht tägliche Empfehlungen. Die Sensoren werden von Drittanbietern eingekauft. Die entsprechenden Satellitendaten bekommt SoilEye aus den Datenbanken der Europäischen Weltraumorganisation (ESA).
Der Preisträger Visualix ist ein preisgekröntes Computer Vision Unternehmen mit Sitz in Berlin. Visualix arbeitet weltweit mit großen Industriekunden zusammen, hat den renommierten Computer Vision-Wettbewerb von ZEISS und dem KIT gewonnen sowie seine Technologie auf großen Konferenzen (z.B. CES in Las Vegas u. AWE in München) und in Zeitschriften (wie z.B. Forbes Magazine) vorgestellt. Mit führenden Branchenberatern, darunter der ehemalige Head of Robotics bei Google, Torsten Kröger und Stefano Corazza, der Leiter der Augmented Reality Unit bei Adobe und PhD in Computer Vision von Stanford, bringt Visualix die Nutzbarkeit von AR auf mobilen Geräten auf die nächste Stufe. Die patentierten Technologien für räumliche Datenverarbeitung ermöglichen eine robuste, skalierbare und zentimetergenaue Zuordnung und Lokalisierung mit gängigen Smartphones. Mit der Visualix-Plattform können Unternehmen 3D-Karten von Räumen erstellen und anschließend AR-Inhalte dauerhaft an jeder Position auf der Karte anbringen. Visualix verfügt über geistiges Eigentum in den Bereichen großflächiger Kartierung, robuster (Re-) Lokalisierung, semantische Positionierung, ARKit / ARCore-Optimierung und großflächige, dauerhafte Bereitstellung von Augmented Reality. Große Industriekunden und AR-Unternehmen nutzen die Visualix-Plattform bereits, um eigene Produkte darauf aufzubauen. Außerdem wurde die Technologie an zahlreichen Standorten weltweit in Edge-Computing-Umgebungen implementiert.
Der preisgekrönte Wettbewerbsbeitrag:
Die Visualix End-to-End-AR-Plattform ermöglicht Unternehmen, Anwendungen für zuverlässige und robusten AR im industriellen Maßstab und unter industriellen Bedingungen zu erstellen. AR-Anwendungen, die auf der Visualix-Plattform für räumliches Computing basieren, können sowohl direkt von Unternehmen als auch von mit ihnen arbeitenden AR-Agenturen, erstellt werden. Diese Anwendungen laufen in der Cloud oder auf dem Server vor Ort. Visualix konzentriert sich auf Anwendungsfälle in Innenräumen, kann jedoch auch im Außenbereich genutzt werden. Die robuste und skalierbare AR Lösung in dynamischen Umgebungen erfordert, dass ein Mitarbeiter des Unternehmens oder eine mit dem Unternehmen arbeitende Agentur, den Bereich mit einem Mobiltelefon (derzeit iPhone) kartografiert. Die Sensordaten werden zusammen mit ARKit / ARCore-Daten und Bildern (patentierte Technologie) an den Server gesendet, der für die Verfeinerung der Karte und die Lokalisierung zuständig ist. Nachdem die Karte erstellt wurde, können Sie sich innerhalb dieser Karte lokalisieren und AR-Inhalte platzieren (an räumliche Standorte anhängen). Langfristig kann der Visualix AR-Viewer in eine vorhandene App integriert werden. Einige Beispiele der Nutzung der Visualix Plattform: Navigation in Innenräumen. Die Verwendung der Visualix-Plattform, erfordert keine Beacons oder Marker (wie QR-Codes); die Zuordnung erfolgt vollständig durch den visuellen Input eines Mobiltelefons. Die Lokalisierung wird auf einem lokalen Server berechnet, auf dem der Visualix-Dienst gehostet wird. Die Lösungen wurden schon in Deutschland, den USA und Südamerika genutzt, um Besucher von Einzelhandelsgeschäften mittels AR bei der Suche nach Produkten und Produktberatung zu unterstützen. Auch 3D Animationen für Promotions-Aktionen sind möglich. Die Visualix-Plattform ermöglicht die Nutzung räumlicher Informationen, um Mitarbeiter über Bestandsprobleme und -Statusmeldungen zu benachrichtigen. Die Visualix Plattform ermöglicht es, Routen innerhalb eines Raumes zu empfehlen und zu visualisieren (3D Pfeile zur Wegweisung). Die Visualix Plattform ermöglicht die Optimierung von Instandhaltungsprozessen durch die Berücksichtigung der räumlichen Komponente (insbesondere in großen Industrielagern.) Die Visualix Plattform bringt Wissensmanagement auf die nächste Stufe, da räumliche Informationen hinterlegt und abgerufen werden können. Die Visualix-Plattform kann auch für Outdoor-Erlebnisse verwendet werden.
Der Deep Tech Award 2019 war eine Gemeinschaftsinitiative der Senatsverwaltung für Wirtschaft, Energie und Betriebe, des Branchenverbandes der IT- und Internetwirtschaft in Berlin und Brandenburg, SIBB e. V., im Rahmen der Landesinitiative Projekt Zukunft sowie der Kampagne für den IT-Standort Berlin „log in. berlin.“.
Der Wettbewerb ist mit 60.000 Euro Preisgeld dotiert. Die Finanzierung erfolgt über Mittel der Senatsverwaltung für Wirtschaft, Energie und Betriebe sowie Mittel der EU/ EFRE.
Bewertet wurden die eingereichten Wettbewerbsbeiträge von einer hochkarätig besetzten unabhängigen Fachjury .













