Use Cases

Beispielhafte Anwendungen des KI-Lab, welche mit verschiedenen Partnern umgesetzt wurden.

Erkunden Sie unsere Anwendungsfälle​

Ihr Anwendungsfall ist nicht dabei? Nehmen Sie mit uns Kontakt auf, um Ihre Möglichkeiten unverbindlich zu besprechen!

email

ki-lab.bwl@mgt.tum.de

phone

+49 89 28924060​

Use-Case-Übersicht

Erkennung von Anomalien in der Motorenproduktion

Durch Einsatz eines unüberwachtes Lernmodelles konnten bei einem OEM anormale Bearbeitungsvorgänge identifiziert werden, die durch Sensoren nicht zufriedendstellend erkannt wurden.

Ausgangssituation
In der Bearbeitungslinie für den Motorblock eines OEMs wurden in unregelmäßigen Abständen Spindeldefekte festgestellt. Die einzelnen Fertigungszentren wurden nachträglich von einer Fremdfirma mit Sensoren ausgestattet. Es wurden Beschleunigungssensoren und Isolationswächter eingesetzt, aber die jeweiligen Überwachungsergebnisse waren nicht zufriedenstellend. Außerdem waren die Steuerungsdaten der Maschinen zugänglich.

Vorgehensweise
Mittels Requirements Engineering wurde die gewünschte Lösung spezifiziert. Dies wurde iterativ durch explorative Datenanalyse begleitet. Zweitens wurden Feature-Engineering-Techniken sowie Methoden des unüberwachten maschinellen Lernens (ML) eingesetzt, um Anomalien zu erkennen. Die Beobachtungen enthielten keine Fehlfunktionen des Systems, daher wurde in der ersten Phase unüberwachtes Lernen durchgeführt. Sobald eine Fehlfunktion erkannt wird, soll die Pipeline feinabgestimmt werden.

Ergebnisse
Unüberwachte Lernmethoden (DB-Scan, k-means) wurden eingesetzt, um Anomalien zu erkennen. Die Pipeline sowie der Demonstrator wurde an das IT-Team des OEMs übergeben. Es wurden auch Visualisierungen für die Betreiber als Dashboard bereitgestellt

Windanalyse für optimale Kranplanung

Um einen neuartigen aber knapp vorhandenen windbeständigen Kran optimal zu platzieren, wurde eine interaktive Front-End-Lösung für die adaptive Szenarienplanung entwickelt.

Ausgangssituation
Ein Windkraftanlagenhersteller hat einen windbeständigen Kran entwickelt. Im Gegensatz zu dieser neuen Technologie müssen herkömmliche Kräne bei starkem Wind den Ausleger ablegen, was sehr kostspielig ist. Nun muss der Windturbinenhersteller entscheiden, in welchem Windpark der neue Kran am besten eingesetzt werden soll, da die Ressourcen sehr begrenzt sind.

Vorgehensweise
Winddaten von bereits installierten Windenergieanlagen wurden zur Analyse von Windfenstern verwendet. Deskriptive Statistiken, Threshold-Analysen und milde Vorhersagen über Windgeschwindigkeits-Zeitreihen dienten dazu, auf der Grundlage vielseitiger Optimierungs-KPIs wie Kosten, Projektverzögerung, Vertragsstrafen oder regionaler konventioneller Krantarife verschiedene Szenarien für die Kranauslastung zu identifizieren.

Ergebnisse
Die Lösung wurde als PowerBI-Dashboard für die erweiterte Planung und Terminierung auf der Grundlage von Winddaten und KPI-Optimierung bereitgestellt. Schulungen zur Nutzung und Wartung der Lösung wurden entwickelt, um die Nachhaltigkeit der Lösung innerhalb der Organisation zu gewährleisten.

Smarte Identifikation von Standardisierungs-potenzialen

Bei einem Windanlagenhersteller wurden Bauteile verschiedener Anlagen in Hinblick auf Standardisierungspotenzial analysiert. Mittels semantischer Analyse konnte die Bauteilvarianz reduziert werden.

Ausgangssituation
Die Identifizierung von technischen  Standardisierungspotenzialen im Produktportfolio erfordert hohen manuellen Aufwand der Mitarbeiter und ist nicht skalierbar. Gemeinsam mit einem Windanlagenhersteller wurden die Stücklisten für Windkraftanlagen konsolidiert, mit einer semantischen Analyse untersucht und im Hinblick auf Standardisierungspotenziale bewertet.

Vorgehensweise
Die Standardisierungspotenziale im Unternehmen werden unter Betrachtung der Produktion, Einkauf & SCM, Entwicklung, Aftersales und Organisation bewertet. In Fokusbereichen werden mit Expertengesprächen relevante Suchparameter (z.B. Semantisch, Topologie oder 3D Daten) zu den Bauteilen identifiziert und ein Ist-Zustand der Datenqualität erhoben. Darauf bauend werden Cluster mit weiteren Bauteilparametern definiert (z.B. Preis, Zulieferer oder Bauteilgruppe). Mit einem Punktesystem werden die Bauteile nach Potenzial bewertet.

Ergebnisse
Im Rahmen des Projekts wurden fünf verschiedene Anlagen analysiert. Die Identifikationen von 10% ähnlichen Bauteilen in 5 Produktfamilien führte zu einem Herstellkostenpotenzial von ~ 9% nur durch die Aufdeckung von verborgenen Standardisierungspotenzialen. Die Potenziale wurden mit Skaleneffekte, Verhandlungsverbesserung und der Reduzierung der Bauteilvarianz erreicht.

Process Mining im Purchase-2-Pay-Prozess

Es wurde ein in Python implementiertes Process Mining Modell aufgesetzt, um den Einkaufsprozess anhand der SAP-Daten genau zu untersuchen. Durch Befunde wie doppelte Zahlungen konnte ein 7-stelliger Betrag eingespart werden.

Ausgangssituation
Unternehmen unterschätzen oft die Komplexität ihres Einkaufsprozesses und stehen einer signifikanten Anzahl an Prozessvarianten gegenüber, die fehleranfällig, langsam und intransparent sind. Die systematische Analyse von Event-Daten im Einkauf führt zu Einsparungen im Materialbereich sowie zu einer höheren Effizienz.

Vorgehensweise
Ein Datensatz basierend auf SAP Eventdaten wurde mit Hilfe eines Open Source Moduls in Python analysiert. Im Besonderen wurden nach einer explorativen Datenanalyse mittels des Process Mining Tools gezielt einzelne Prozessauffälligkeiten genauer analysiert und den Fachbereichen vorgestellt. Die gewonnenen Kenntnisse wurden dazu genutzt, um neue KPIs für den Einkauf zu erfassen und Einkaufsprozesse zu verschlanken und zu vereinheitlichen.

Ergebnisse
Die Lösung war ein in Python implementiertes Process Mining Modell, das durch die Analyse der SAP Eventdaten Maverick Buying, doppelte Zahlungen und Automatisierungspotenziale aufgedeckt hat. Insbesondere konnte durch die Identifikation von doppelten Zahlungen ein 7-stelliger Geldbetrag von den Lieferanten zurückgefordert werden.

Resilienz-Monitoring

Um ein resilientes Unternehmen aufzubauen müssen sich Unternehmen ihrer Umweltrisiken bewusst sein und diese gezielt managen. Verschiedene Technologien wie die Früherkennung zur Analyse von Trends können die Resilienz eines Unternehmens erhöhen.

Ausgangssituation
Unternehmen wollen die eigene Resilienz steigern. Zu diesem Zweck ist nach einer Positionsbestimmung im Rahmen eines Audits eine kontinuierliche Überwachung der eigenen Resilienzfähigkeit organisatorisch zu verankern. Hierzu ist die Überwachung von kritischen Schnittstellen, Bottlenecks und Lieferanten so zu gestalten, dass die Fachbereiche Transparenz haben und Trends frühzeitig erkennen.

Vorgehensweise
Zunächst wurden kritische Supply Chain Bereiche im Resilienz-Audit identifiziert. Für diese wurden Indikatoren abgeleitet, die auf Trends/Abweichungen überwacht werden. Für diese Indikatoren wurden messbare KPIs in verfügbaren internen (ERP, MES, S&OP) und externen (Plattformen, WebScraping, 3rd-Party) Datenquellen festgelegt. Weiterhin wurde ein Front-End-System entwickelt, um den Fachbereichen Transparenz über ihre Resilienz zu geben. Das Tool wurde in den Planungs-/Budgetierungsprozess eingebunden und organisatorisch verankert.

Ergebnisse
Die Lösung war ein webbasiertes Dashboard, das die Fachbereiche zur Früherkennung von Trends und Kipppunkten in der Wertschöpfungskette nutzen können. Über vordefinierte Optionen für definierte Indikatorausschläge können Entscheidungen schneller getroffen werden.

Vorhersage der verbleibenden Lebensdauer von Komponenten

Für ein Unternehmen aus dem Maschinenbau wurde eine Lösung für die Überwachung und vorausschauende Wartung implementiert, welche die verbleibenden Arbeitsgänge auf Grundlage des geschätzten Komponentenverschleißes berechnet.

Ausgangssituation
Wenn ein Werkzeug einen bestimmten Verschleißgrad erreicht, wirkt sich dies direkt auf den Fertigungsprozess aus, da die Qualität sinkt und die Ausschussrate steigt. Leider lässt sich der Verschleißgrad eines Bauteils oft nicht direkt messen. TCW unterstützte ein KMU aus dem Maschinenbau bei der Ermittlung der Restlebensdauer einer Fräsmaschine. Ziel war es, mit vorhandenen Sensordaten indirekt auf den Verschleiß zu schließen.

Vorgehensweise
Ein Datensatz wurde mit Hilfe der Messungen von Beschleunigungs- und Kraftsensoren erstellt. Die Durchführung einer explorativen Datenanalyse diente der Bewertung des Datensatzes, seiner Qualität und seiner Eigenschaften. Der Zielwert (maximale Fräserbewegung) wurde definiert und die korrelierenden Parameter der Sensoren wurden mit Hilfe eines Regressionsansatzes bewertet. Basierend auf diesen Ergebnissen wurde ein maschinelles Lernmodell erstellt, das die Restlebensdauer des Bauteils bestimmt.

Ergebnisse
Die Lösung war ein in Python implementiertes Modell, das den Verschleiß des Bauteils indirekt durch Messung der Daten von Beschleunigungs- und Kraftsensoren anzeigen konnte. Ein Dashboard zur Überwachung wurde in Tableau implementiert und dem Kunden übergeben.

Zustandsüberwachung von Industrierobotern

Der Ausfall eines Roboters wurde bei einem OEM mittles eines Machine Learning Modells vorhergesagt. Die Bedeutung von Merkmalen der Situation konnten als Prüfung ebenfalls untersucht werden.

Ausgangssituation
Gemeinsam mit einem OEM wurde die Zustandsüberwachung für Industrieroboter mit Schwerpunkt auf getriebebedingten Ausfällen  untersucht. Der Roboter wurde mit Beschleunigungssensoren ausgestattet und in einer Laborumgebung eingesetzt. Eine definierte Trajektorie wurde programmiert, um den Verschleiß in den Zahnrädern zu provozieren. Die Zeitreihen der Beschleunigungssensoren wurden für die Analyse aufbereitet.

Vorgehensweise
Mittels Requirements Engineering wurde die gewünschte Lösung spezifiziert. Dies wurde iterativ durch explorative Datenanalyse begleitet. Merkmale in verschiedenen Domänen (Zeit, Frequenz und Zeit-Frequenz) wurden analysiert, um verschiedene Klassifikationsmodelle zu trainieren. In einem iterativen Verfahren wurden die Merkmale, Modellierung und Bewertung optimiert, um die Lösung zu generieren. Die Generalisierung muss noch bewiesen werden, da nur eine einzige Beobachtung (Roboter) zum Testen zur Verfügung stand.

Ergebnisse
Im Rahmen des Projekts wurde ein PoC für den Ansatz erstellt. Das ML-Modell wurde entwickelt, sowie die Pipeline für die Merkmalsextraktion und -auswahl. Zur Konsistenzprüfung innerhalb des Modells wurden Merkmalsbedeutungsmaße analysiert.

Robot Process Automation (RPA) in der Finanzbuchhaltung

Über eine Schnittstelle zum ERP-System konnten Daten mit Python automatisert extrahiert und weiter verarbeitet werden, um manuellen Aufwand zu verringern und den Grundstein für weiter Anwendungsfälle zu legen.

Ausgangssituation
In Unternehmen müssen regelmäßig manuelle Buchungen in externen Systemen (z.B. Steueranmeldungen) auf Basis von ERP-Daten durchgeführt werden. Dieser Prozess umfasst typischerweise mehrere manuelle Schritte, wie das Öffnen und Überprüfen von Kontensalden, das Überprüfen von Berechnungen und die Freigabe von Zahlungen. Dies ist ein sehr zeitaufwändiger und fehlerbehafteter Prozess.

Vorgehensweise
Ein Anwendungsfall, der betrachtet wurde, ist die Effizienzsteigerung in der Steuervoranmeldung. Über Python wurde eine Schnittstelle zu einem ERP-System geschaffen, um die relevanten Daten der verschiedenen Buchungskreise aus dem ERP-System zu extrahieren. Diese wurden im Nachgang in eine Excel-Datei eingefügt und die einzelnen Posten automatisch miteinander verrechnet. So kann die Finanzbuchhaltung direkt die Zahlungen evaluieren, die an das Finanzamt übermittelt werden sollen.

Ergebnisse
Die automatisierte Datenextraktion durch RPA spart den Mitarbeitenden Arbeitsaufwände, die mit dem manuellen ERP-Export verbunden sind. Dieser Use Case lässt sich analog auf verschiedene weitere SAP Transaktionen anwenden, die als Grundlage für weitere Datenanalysen genutzt werden können.

Smarte Trend- und Anomalieerkennung in der QS

Die smarte Trend- und Anomalieerkennung in der Qualitätssicherung ermöglicht es frühzeitig auftretende Qualitätsprobleme zu identifizieren und zu beseitigen. 

Ausgangssituation
Das produzierende mittelständische Unternehmen hatte in der Vergangenheit die Herausforderung, dass Qualitätsprobleme erst spät erkannt wurden, was dann zu Ausfällen und Rückrufen von Produkten geführt hat. Dies mündete in der Tatsache, dass das Image des Unternehmen und die Kundenzufriedenheit darunter litten. Ebenso war es für das Unternehmen schwierig die Ursachen der Qualitätsprobleme zu identifizieren und gezielte Maßnahmen dagegen einzuleiten. Ein kontinuierliche Verbesserung des Qualitätssicherungsprozesses war aufgrund dieser Tatsache nicht möglich und die Produkte gerieten im Vergleich zu Wettbewerbern unter Druck.

Vorgehensweise
Zu Beginn des Projektes wurden die wichtigsten Prozesse und Abläufe in der Qualitätssicherung analysiert, um herauszufinden, an welchen Stellen die Trend- und Anomalieerkennung besonders wichtig sein könnte. Im Anschluss daran wurden relevante Datenquellen, wie bspw. aus Produktionsprozessen, Kundenfeedback und Qualitätskontrollen, identifiziert. Mittels einer Objektklassifizierung wurde ein Algorithmus trainiert, welcher einerseits auf Basis von Bildern Qualitätsmängel in Produktionsschritten erkennen kann sowie das gesammelte Kundenfeedback mittels Natural Language Processing kategorisieren kann, um so den Mitarbeitenden in der Qualität frühestmöglich Hinweise auf mögliche auftretende Qualitätsprobleme zu geben.

Ergebnisse
Durch die Implementierung der smarten Trend- und Anomalieerkennung in der Qualitätssicherung konnten die Qualitätskosten im Unternehmen reduziert werden und die Kundenzufriedenheit gesteigert werden. Durch die gestiegene Kundenzufriedenheit konnte das Absatzvolumen des Unternehmens erhöht werden.

Vertrieb: Automatische Angebotserstellung

Die automatische Angebotserstellung im Vertrieb hilft dabei, dass der Angebotsprozess automatisiert werden kann und so die Vertriebsmitarbeitenden sich nun auf wichtigere und wertschöpfende Tätigkeiten fokussieren können.

Ausgangssituation
Mitarbeiter im Vertrieb eines Industrieunternehmens mussten manuell ähnliche Angebote an den Kunden stets per Hand neu im System erfassen und den Prozess für die Angebotserstellung stets von Beginn an durchführen.

Vorgehensweise
Auf Basis vergangener Angebote konnten mittels Natural Language Processing und einer semantischen Textanalyse gleiche Angebote geclustered werden Die geclusterten Angebote wurden in einer Datenbank abgespeichert und indexiert. Im Anschluss wurde ein Frontend zur Abfrage dieser Dokumente auf Basis bestimmter Parameter erstellt.

Ergebnisse
Automatisierte Erstellung von Angeboten entsprechend den Kundenanforderungen auf Basis von vergangenen Angeboten -> Effiziente Angebotserstellung, Erhöhung der Personalkapazität

Einkauf: Frühwarnsysteme in der Beschaffung

Das Frühwarnsystem in der Beschaffung erhöht die unternehmensweite Resilienz und unterstütz bei der frühzeitigen Erkennung von Disruptionen, um so best möglich und schnell auf diese zu reagieren.

Ausgangssituation
Mitarbeiter im Einkauf eines Industrieunternehmens wurden über etwaige Disruptionen und Supply Chain Events zu spät in Kenntnis gesetzt, sodass es zu großen Lieferausfällen oder -verspätungen gekommen ist. Dies führte in der Vergangenheit zu Produktionsstopps.

Vorgehensweise
Zuerst wurden die wichtigsten Faktoren analysiert und zusammengetragen, welche für das Unternehmen relevant sind. Verschiedene Datenquellen wurden identifiziert, die relevante Informationen zu möglichen Disruptionen liefern könnten, zum Beispiel Nachrichtenberichte, Social Media-Aktivitäten, Wetterdaten oder Informationen von Lieferanten und Kunden. Im Anschluss erfolgte die Entwicklung eines Monitoring Modells, welches mittels Natural Language Processing kontinuierlich Daten semantisch auswertet und klassifiziert. Ebenso wurde es ermöglicht die etwaigen Auswirkungen durch die Disruption zu bewerten und simuliert wie sich diese auf die Supply Chain auswirken. Zusammen mit den Mitarbeitenden wird das System nun kontinuierlich gemonitored und so weiterhin optimiert, um die Effektivität des Unternehmens zu erhöhen.

Ergebnisse
Das entwickelte System hat es ermöglicht mögliche Disruptionen frühzeitig zu erkennen und zu bewältigen, bevor sie sich negativ auf die Logistikprozesse auswirken. Dadurch konnte man Ausfälle und Verzögerungen vermeiden und die Zuverlässigkeit und Effektivität der Logistik verbessern. Ebenso hat das System dazu beigetragen die Flexibilität und Anpassungsfähigkeit des Unternehmens zu erhöhen. Indem man schnell auf veränderte Bedingungen reagieren kann, konnte man sich besser an neue Herausforderungen anpassen und dadurch die unternehmensweite Resilienz verbessern. Schließlich konnte das Frühwarnsystem auch dazu beitragen  das Vertrauen von Kunden und Geschäftspartnern zu stärken. Indem man eine hohe Zuverlässigkeit und Performance in der Logistik bietet, kann man das Vertrauen von Kunden und Geschäftspartnern gewinnen und dadurch die Geschäftsperspektiven des Unternehmens verbessern.

KI-unterstützte Patentrecherche in der Produktentwicklung

Die KI-unterstützte Patentrecherche unterstützt vorallem produzierende Betriebe dabei Patente zu finden. Desweiteren ist es möglich frühzeitig mögliche Patentverletzungen zu erkennen, sodass die Entwicklung dieser Produkte frühzeitig eingestellt bzw. adjustiert werden kann.

Ausgangssituation
Bei der (Weiter-)Entwicklung von Produkten können bereits durch kleine Anpassungen neue patentierungswürdige Erfindungen entstehen. Diese werden jedoch häufig durch Entwicklerteams nicht als solche erkannt, da die  Beschreibungen der Erfinder und der Patentanträge sprachlich große Unterschiede aufweisen. KI kann hier als Übersetzer auftreten und die Suche innerhalb der Patentdatenbanken für Entwickler erleichtern.

Vorgehensweise
Mittels KI-basierter natürlicher Sprachverarbeitung können Patente und Patentanträge in Datenbanken auf bestimmte Schlagworte analysiert werden und die Änderungsbeschreibung der Produktentwickler in juristische Fachsprache übersetzt werden. Dies erlaubt eine semantische Ähnlichkeitsanalyse der verschiedenen Erläuterungen, sodass entsprechende Patente mit einer großen sprachlichen Ähnlichkeit zurückgegeben werden können.

Ergebnisse
Hierdurch können Ähnlichkeiten zwischen Neuentwicklungen und bestehenden Patenten identifiziert werden. Dies erlaubt es einerseits patentierungswürdige Erfindungen zu erkennen und anderseits Patentverletzungen zu vermeiden.

Identifikation von Innovationspartnern im strategischen Einkauf 

Durch den Einsatz von Methodiken aus dem Bereich der künstlicher Intelligenz können im strategischen Einkauf innovative Lieferanten identifiziert werden, die im traditionellen Screeningprozess womöglich verborgen geblieben wären.

Ausgangssituation
Die Auswahl des richtigen Lieferanten stellt eine zentrale Herausforderung für viele produzierende Unternehmen dar. Besonders die Identifikation neuer innovativer Partner verstärkt die Komplexität für den strategischen Einkauf noch einmal deutlich, da diese den Unternehmen häufig noch unbekannt sind. Methodiken aus dem Bereich der Data Analytics und der künstlichen Intelligenz unterstützen dabei, geeignete Zulieferer zu identifizieren.

Vorgehensweise
Durch Big Data können Informationen aus verschiedenen internen und externen Quellen wie z.B. ERP-Systemen, Unternehmens- und Patentdatenbanken, Newsmeldungen, Social Media und wissenschaftlichen Publikationen zusammengetragen werden. Diese Masse an unstrukturierten Daten wird mit Methodiken des NLP, Machine Learnings und künstlicher Intelligenz nach potenziellen Lieferanten durchforstet und anschließend hinsichtlich verschiedener Metriken wie z.B. Innovativität oder Resilienz analysiert.

Ergebnisse
Durch die Methodik kann die Anzahl der betrachteten Unternehmen im Screening Prozess erheblich erhöht werden und zuvor potenziell unerkannte Zulieferer, besonders in neuen Marktsegmenten, aufgedeckt und beurteilt werden.

Identifizierung von gefälschten Produkten durch Webscraping und Textanalyse

Durch Webscraping und Textanalyse können gefälschte Produkte automatisiert identifiziert werden, sodass der manuelle Suchaufwand reduziert wird. Das erlaubt Mitarbeitern eine fokussierte Umsetzung rechtlicher Ansprüche. 

Ausgangssituation
Ein Hersteller von Markenklamotten kämpft seit mehreren Jahren mit Produktfälschungen, die unter dem Markennamen des Herstellers angeboten werden. Zum einen führen die Produktfälschungen dazu, dass die Absatzmenge des Herstellers sinkt und zum anderen reklamieren unwissende Kunden die Qualität der Klamotten beim Kundenservice. Die manuelle Identifikation von gefälschten Artikeln führte zu einem erheblichen Mehraufwand.

Vorgehensweise
Zuerst wurden gemeinsam mit dem Klamottenhersteller Keywords definiert nach denen das Internet durchforstet werden sollte. Diese wurden durch einen Fuzzy Matching Algorithmus sowie eine semantische Textanalyse erweitert. Die erhaltenen Ergebnisse der einzelnen Produkte wurden mit den tatsächlich gelisteten Lieferanten und deren Bestellungen verglichen. So konnten potenzielle Fälschungen zielsicher analysiert werden.

Ergebnisse
Das Webscraping der Produkte, die semantische Textanalyse und das Fuzzy Matching erlauben es gefälschte Produkte zielsicher zu identifizieren und den manuellen Suchaufwand für Mitarbeiter dramatisch zu reduzieren, sodass sich diese um die rechtlichen Konsequenzen kümmern können.

"Lead prediction" auf Basis von Cookie-Daten für einen deutschen Automobilhersteller

Durch die smarte Vorhersage können potenziell relevante Kunden besser vorhergesagt werden und durch zielgerichtetes Advertising besser mit Werbung angesprochen werden.

Ausgangssituation
Ziel war es eine Prognose zu erzeugen, ob ein Website-Besucher zum potenziellen Kunde (Lead) wird. Um eine effizientere Verwendung des Marketingbudgets zu erreichen, wurden hierzu die Kaufpräferenzen eines potenziellen Kunden aus Cookie-Daten des Online-Konfigurators und verschiedenen anderen soziographischen Daten ermittelt.

Vorgehensweise
Für dieses Projekt wurde der CRISP-DM Prozess als Vorgehensweise gewählt. Zudem wurde für die Datenaufbereitung SMOTE genutzt, um den unausgewogenen Datensatz zu bereinigen. Damit anschließend die Zielvariablen anhand von Kundendaten und soziografischen Details identifiziert werden können, wurden die Klassifikationsmodelle Random Forest, Extra-Trees Classifier und XGBoost verwendet. Alle drei Modelle wurden anhand wichtiger Merkmale, die aus dem ursprünglichen Datensatz ermittelt wurden, trainiert und getestet.

Ergebnisse
Dazu wurde ein PoC mit einem ML-Modell entwickelt. Der Klassifizierungs-Algorithmus kann mit >93% Genauigkeit vorhersagen ob und mit welchen Eigenschaften ein Website-Besucher zum potenziellen Kunden wird. Die Ergebnisse wurden zudem in Tableau visualisiert.

Entwicklung eines Reifegradmodells für Machine Learning Use Cases in der Produktion

Durch die Entwicklung eines Reifegradmodells für Machine Learning Use Cases in der Produktion können Unternehmen ihren Status quo beurteilen und gezielt Maßnahmen ergreifen, um Data-Science-Projekte im Unternehmen umzusetzen.

Ausgangssituation
Die Einführung von Machine Learning im Produktionsumfeld erfordert eine genaue Planung und stellt Unternehmen vor diverse Herausforderungen. Wir haben ein präskriptives Reifegradmodell entwickelt, das Produktionsabteilungen in die Lage versetzt, ihren aktuellen Reifegrad zu bewerten und eine Roadmap zu entwickeln. Hierdurch können die Potenziale von Machine Learning nachhaltig genutzt werden.

Vorgehensweise
Unternehmen fehlt häufig ein durchgängiges Konzept für die Identifikation und Einführung von Machine-Learning-Anwendungen in der Produktion. Aus diesem Grund haben wir die Entwicklung eine präskriptives Reifegradmodells vorangetrieben. Hierzu haben wir eine Vielzahl von Experteninterviews durchgeführt und die Erfahrung aus zahlreichen Beratungsprojekten zum Thema Produktionsoptimierung eingebracht. In mehreren Iterationen wurde das Reifegradmodell entwickelt, optimiert und mit Unternehmen durchgespielt.

Ergebnisse
Das entwickelte Modell umfasst neun Hauptdimensionen, 30 Unterdimensionen und fünf Reifegradstufen zur Bewertung einer Produktionsabteilung und steht Unternehmen in Form eines Tools zur Verfügung.

Organisatorische Verankerung eines Center of Excellence

Durch die organisatorische Verankerung eines Center of Excellence können Unternehmen effizient Use Cases im Bereich Data Analytics oder Data Science umsetzen.

Ausgangssituation
Unternehmen wollen den Mehrwert von datengetriebenen Technologien nachhaltig nutzen und Data-Science-Kompetenz im eigenen Unternehmen aufbauen. Die richtige organisatorische Verankerung spielt hierbei eine wichtige Rolle.

Vorgehensweise
„Data-Science-Kompetenz im Unternehmen aufbauen – von Push zu Pull. Data Science ist im Unternehmen verwurzelt und fester Teil der Unternehmensstrategie“. Anhand dieses Zielbilds hat das Unternehmen eine eigene organisatorische Einheit aufgebaut. Zunächst wurden Use Cases in einem kleinen Team entwickelt und pilotiert. Nach dem der Mehrwert bewiesen war, wurden Prozesse installiert und eine Job-Rollen Bibliothek entwickelt. Als letzter Schritt wurde ein Change-Management-Projekt umgesetzt.

Ergebnisse
Die Organisationseinheit ist fest verankert als Center of Excellence mit unterschiedlichen Rollen (Business Analysts, UI/UX Designer, Communications Officers, Data Analysts, Data Scientists und DevOps Engineers sowie Computer Engineers). Data Culture liefert einen maßgeblichen Anteil am Erfolg des Unternehmens.