Wir entwickeln und trainieren Modelle zur Predicitve Maintenance und Anomalie-Erkennung. Wir verwenden Open Source Tools und Software für unsere Dienstleistungen, um Herstellerabhängigkeiten zu minimieren.
KI Prototypen
Wir suchen mit Ihnen zusammen Optimierungspotential basierend auf den vorhandenen Daten in Ihrem Unternehmen und prüfen innerhalb von 8 Wochen an Hand eines Prototypen die Machbarkeit.
IoT Infrastruktur
Wir erstellen und betreiben Ihre 24/7 IoT Plattform. Hierbei verwenden wir offene Protokolle und Schnittstellen, um die Kommunikation Ihrer Maschinen mit der Cloud zu ermöglichen. Bei der Entscheidung zwischen aws, Azure oder Google Cloud stehen wir Ihnen unterstützend zur Seite.
Referenzen
Projekterfahrungen unserer Teammitglieder
Sensorbasierte Mustererkennung
KI Prototyp & IoT Infrastruktur
Wartungsoptimierung bei einem Wohnungsanbieter
Predictive Maintenance
IoT Plattform für einen Maschinenbauer
IoT Infrastruktur
Zweifacher Gewinner der Data Hub Challenge
Predictive Maintenance & Anomalie-Erkennung
Virtual Advisor für einen Automobilhersteller
KI Prototyp
Deep Learning Modell in der Bioinformatik
KI Prototyp
Unser Team
Wir sind seit Jahren ein eingespieltes Team und ergänzen uns in allen Aufgaben der Produktentwicklung
Kieran Graham
Software Architect & Data Engineer
Jörg Sädtler
Business Analyst & Machine Learning Expert
Dr. Thomas Vanck
Machine Learning Expert
Wir lieben unsere Arbeit!
Kontakt
Wartungsoptimierung bei einem Wohnungsanbieter
Predictive Maintenance für Gebäude.
Der Wohnungsanbieter verfügt über mehr als 120.000 Wohnungen in Nordrhein-Westfalen. Die Sanierung und Wartung dieser Anlagen kostet jährlich mehrere Millionen Euro.
Ziel des Projekt war es, Gebäude mit Sanierungs- und Instandhaltungsbedarf schon vor physischen Besuchen oder Mieterbeschwerden zu erkennen. Als Indikatoren koonnten verschiedene Quellen herangezogen werden, z.B. Alter der Gebäude, Datum der letzten Renovierung, Anzahl der Mieterwechsel, Schadensmeldung im Gebäude, soziale Veränderungen in der Nachbarschaft, etc.
Diese Daten wurden zuvor noch nicht analysiert, da verschiedene Datenquellen kombiniert werden müssen und der Einfluss der einzelnen Faktoren unsicher ist. Der Wohnungsanbieter wollte ein System entwickeln lassen, das eine Prognose darüber gibt, wie wahrscheinlich es ist, dass ein Gebäude innerhalb der nächsten 12 Monate, 36 Monate und 60 Monate Sanierungs- oder Instandhaltungsaufwand verursacht. Dieses Gebäude würde dann zur Bestätigung physisch besucht werden.
Projekt Ziele:
Zuverlässige Prognosen: Wahrscheinlichkeit des Sanierungs- oder Wartungsaufwands innerhalb von 12, 36 und 60 Monaten.
Jede nennenswerte Beziehung zwischen Datenpunkten und/oder externen Einflussfaktoren ist zu dokumentieren.
Ergebnisse
Wir konnten viele der vorhandenen Datenquellen zusammenfassen und haben drei verschiedene Problemstellungen untersucht. Zwei der trainierten Modell konnten den Fachabteilungen bei der strategischen Planung helfen.
Ein Mitarbeiter des Kunden sagte: "Ein externer, menschlicher Spezialist wäre bei weitem nicht in der Lage, die Vorhersagequalität des Machine Learning Modells nur auf Basis der Daten zu erreichen"
Datum: Januar bis März 2019
Kunde: Wohnungsanbieter
Kategorie: Predictive Maintenance
Zweifacher Gewinner der Data Hub Challenge
Data Hub Ruhr Projekte.
Der Data Hub Ruhr hat beim ersten Open Call Bewerber für sieben verschiedene Projekte gesucht. Durch unsere langjährige Erfahrung in verschiedenen Projekten, konnten wir uns durch unsere Machine Learning basierten Lösungsvorschläge gleich zweimal gegen mehr als 140 Bewerber durchsetzen und haben die Projekte gewonnen.
Bei beiden Projekten hat das Data Hub Ruhr Team schon großartige Vorarbeit geleistet und Usecases verschiedener Unternehmen im Ruhrgebiet untersucht. Dabei sind insgesamt sieben Projekteausschreibungen entstanden, bei denen die Unternehmen Problemstellungen formuliert haben, die sie mit Daten aus ihren Unternehmen untersucht und gelöst haben wollten.
Überzeugen konnten wir gleich zwei der teilnehmenden Unternehmen durch unsere auf Standard Tools basierten Lösungsvorschläge und haben im Dezember 2018 die Prototypen Entwicklung begonnen
Anbindung von Maschinen und Architektur der Datenplattform.
Der Maschinenbauer sammelt Daten von mehreren tausend Produkionsmaschinen schon seit mehr als 10 Jahren. Um nun neue Anwendungsfälle wie Predicitve Maintenance und neue digitale Geschäftsmodelle umzusetzen, ist eine Aktualisierung der Maschinenanbindung und eine einheitliche Datenverarbeitungsplattform nötig.
Wir unterstützen den Maschinenbauer sowohl bei der Anbindung der Maschinen als auch bei der Datenverarbeitungsplattform von Architekturentwürfe und Prototypen bis zum produktiven Einsatz. Außerdem haben wir Machine Learning basierte Predicitve Maintenance Modelle für den Kunden entwickelt. Wir haben uns an vielen Stellen für offene Standardprotokolle und Standard Schnittstellen für den Datenzugriff entschieden, um die Herstellerabhängigkeit zu weit wir möglich zu reduzieren. Die Architektur basiert auf Standard Cloud Komponenten von Azure und aws.
Der Kunde kann durch die neue Plattform die Latenz der Datenübertragung zwischen den Maschinen und der Datenplattform von mehr als 24 Stunden auf weniger als eine Sekunde reduzieren. Der Zugriff auf die generierten Maschinen Daten und Auswertungen wird zentral für alle Fachabteilungen über Standardschnittstellen ermöglicht.
Datum: Dezember 2018 bis heute
Kunde: Maschinenbauer
Kategorie: IoT Infrastruktur
Virtual Advisor für einen Automobilhersteller
Proaktiver Assistent.
Auf der Suche nach neuen digitalen Geschäftsmodellen hat sich ein Automobilhersteller entschieden, einen proaktiven, virutellen Assistenten zu entwickeln. Dieser sollte mit Zugriff sowohl auf die Mobilitäts- und Fahrzeugdaten als auch die Produktivitätstools wie Kalender und Email die Benutzer möglichst effizient durch den Tag begleiten.
Wir haben den Kunden bei der Entwicklung der ersten Prototypen für dieses KI Produkt sowohl bei der Intragration der verschiedenen Datenquellen als auch bei der Architektur und Entwicklung der IoT Plattform unterstützt. Mit Hilfe der Daten konnten wir auch verschiedene Machine Learning Modelle entwickeln und die Projekt und Roadmap Planung durch unsere Erfahrung in Machine Learning Projekten sinnvoll beeinflussen.
Datum: Dezember 2016 bis Juli 2018
Kunde: Automobilhersteller
Kategorie: KI Prototyp
Sensorbasierte Mustererkennung
Verkehrsmittelerkennung auf Smartphones.
Eine App zur Parkplatz Suche hat häufig falsch erkannt, ob der Besitzer mit einem Auto oder einem öffentlichen Verkehrsmittel unterwegs war. Die Erkennung des Verkehrsmittels musste innerhalb von 90 Sekunden nach Fahrtbeginn erfolgen. Zur Lösung haben wir ein Machine Learning Modell trainiert, dass die Beschleunigungs- und Gyroskopdaten verwendet um das genutzte Verkehrsmittel zu erkennen.
Das trainierte Modell kann 85% der Autofahrten korrekt innerhalb der ersten 90 Sekunden nach Fahrtbeginn erkennen. Wir haben für das Training mehr als 40.000 Fahrten von über 2.000 Personen verwendet. Insgesamt haben wir ca. 1 Terabyte an Sensordaten für das Training gesammelt. Außerdem haben wir die Software und Infrastruktur für den Sammel- und Produktivbetrieb in der aws Cloud entwickelt und betrieben.
Datum: 2015 - 2017
Kunde: ParkTAG GmbH
Kategorie: KI Prototyp & Infrastruktur
Deep Learning Modell in der Bioinformatik
Protein Docking mit Neuronalen Netzen.
Für die Vorhersage der Bindung von Proteinen werden bis heute meistens Simulationen verwendet. Dise Simulationen
können die Entwicklung von neuen Medikamenten deutlich verkürzen, da die Bindung von Proteinen die Grundlage für die Wirksamkeit bestimmter Moleküle ist.
Die Entwicklung dieser Simulationsmodelle ist sehr aufwändig und die Integration neuer Forschungsergebnisse aus experimentell bestätigten Bindungseigenschaften langwierig. In diesem Projekt haben wir die Möglichkeiten von Deep Learning und Sequenmodellen untersucht und konnten innerhalb kurzer Zeit Bindungsvorhersagen für Protein Paare durchführen, die schon sehr Nah an den Simulationsergebnissen lagen. Wir gehen davon aus, daß Deep Learning in den nächsten Jahren die Simulation von Protein Docking deutlich verbessern wird und dadurch die Kosten für die Erforschung und Entwicklung neuer Medikamente erheblich reduzieren wird.