Wir freuen uns, die Erfolge unserer Mai-Absolventen vorzustellen, sie haben das Programm und ihre Abschlussprojekte mit Bravour gemeistert.
In den letzten drei Monaten haben sich die Studenten der Gruppe Nr. 31 in Zürich und der 10. Kohorte in München stellt einer Vielzahl komplexer, praktischer Herausforderungen. Ihre Leidenschaft, ihre technischen Fähigkeiten und ihre Ausdauer kamen in jedem Projekt zum Ausdruck.
Entdecken Sie, wie unsere Absolventen Data Science einsetzen, um neue Erkenntnisse zu gewinnen, Horizonte zu erweitern und echte Veränderungen zu bewirken.
Intelligenter LNG-Handel mit KI: Die Prognoselösung eines Bootcamp-Teams
Studierende: Juan Zhang,
Daniel Florit,
Jianhui Xu
Auf den schnelllebigen globalen Energiemärkten können schnelles Reagieren und datengestützte Erkenntnisse den Unterschied zwischen Erfolg und Misserfolg im Handel ausmachen. Dies ist auch die Herausforderung, vor der das Schweizer Energieunternehmen BKW steht, welches sich in der komplexen Landschaft des Handels mit Flüssigerdgas (LNG - Liquified Natural Gas) bewegt. Um intelligente Entscheidungen zu unterstützen, hat sich ein Trio von Bootcamp-Absolventen – Dani (Finanzen), Juan (MBA) und Jensen (Physiker) – zusammengetan, um ein KI-gestütztes Tool zu entwickeln, das Wirtschaftlichkeitssimulationen und -prognosen für LNG-Routen vereinfacht.
Das Problem
LNG-Händler müssen hochdynamische Marktbedingungen analysieren, darunter Preisvolatilität an mehreren Terminals, sich verändernde Nachfrage und undurchsichtige Kostenstrukturen. Die manuelle Berechnung der Rentabilität von Transporten ist zeitaufwändig und oft fehleranfällig – insbesondere in sich schnell verändernden geopolitischen Kontexten.

Die Lösung
Das Team entwickelte ein robustes Deep-Learning-Modell auf Basis von LSTM (Long Short-Term Memory), um LNG-Referenzpreise (TTF, PVB, Henry Hub) für Zeiträume von 30, 60 und 90 Tagen zu prognostizieren. Um unvorhersehbare Ereignisse wie Kriege oder Krisen besser zu berücksichtigen, optimierten sie die Modelle mit flexiblen Lookback-Fenstern und gezielt entwickelten Funktionalitäten. Die Vorhersagen wurden mit dem MAE (Mean Absolute Error) validiert und für eine hohe Praxistauglichkeit optimiert. Damit die Ergebnisse direkt nutzbar sind, erstellte das Team zudem eine benutzerfreundliche Streamlit-Webanwendung.
Die Plattform ermöglicht Händlern Folgendes:
• Simulation von Netback und Gewinn pro Fahrt
• Interaktiver Vergleich von Handelsrouten
• Anpassung von Kosten wie Regas-Gebühren oder Kraftstoffverlusten
• Visuelle Erkundung des Marktes mit kartenbasierten Handelsszenarien
Wie geht es weiter?
Das Team möchte die App mit Echtzeit-Preisfeeds verbinden, die Verfügbarkeit von Liefer-Slots prognostizieren und Ensemble-Modelle anwenden, um die Zuverlässigkeit der Langzeitprognosen zu erhöhen.
Dashboard für klinische Daten aus der Praxis: DataInspector von TriNetX
Studierende: Dr. Daniel Rodriguez Gutierrez,
Dr. Cemil Kerimoglu
TriNetX ist ein weltweit führender Anbieter von Real-World-Daten und ermöglicht Forschenden sicheren Zugriff auf vielfältige klinische Datensätze, um medizinische Erkenntnisse schneller zu gewinnen. Dennoch haben Projektmanager, die mit TriNetX-Daten arbeiten, oft Schwierigkeiten, die Qualität der Datensätze zu bewerten, Erkenntnisse sicher auszutauschen und Informationen verständlich aufzubereiten.
Um diese Herausforderungen zu bewältigen, haben Daniel und Cemil ein intuitives, sicheres und interaktives Dashboard entwickelt, das die Arbeit mit klinischen Real-World-Daten aus dem TriNetX-Ökosystem grundlegend erleichtert und die Kommunikation darüber verbessert.
Den Bedarf verstehen: Klarheit durch Visualisierung
Das Projekt begann mit der Ermittlung der Kernbedürfnisse von Projektmanagern: ein Tool zur Bewertung komplexer Datensätze für die Entscheidungsfindung, Mechanismen, die eine Kommunikation ohne Beeinträchtigung der Privatsphäre der Patienten ermöglichen, und visuelle Analysen, die komplexe Daten durch Interaktivität in umsetzbare Erkenntnisse umwandeln.
DataInspector wurde entwickelt, um die Nutzererfahrung von Komplexität zu Klarheit zu führen und Projektmanagern eine schlanke Oberfläche zu bieten, mit der sie Daten gezielt erkunden, filtern und aussagekräftig teilen können.
Datenfilterung, Übersichten auf Zentrumsebene und zusammenfassende Visualisierungen sind zentrale Bestandteile des Dashboards.

Eine umfassende Lösung für Projektmanager
Das daraus resultierende Dashboard bietet:
- Auf die Bedürfnisse der Benutzer zugeschnittene benutzerdefinierte Diagramme und Kennzahlen.
- Datenschutzbewusstes Design zur Gewährleistung eines sicheren Umgangs mit Informationen.
- Exportierbare Zusammenfassungen und Grafiken zur Unterstützung der funktionsübergreifenden Zusammenarbeit.
Dieses Tool wurde speziell für das TriNetX-Ökosystem entwickelt, in dem große Mengen klinischer Daten sowohl wissenschaftliche Genauigkeit als auch einen benutzerfreundlichen Zugriff erfordern.
Eine optimierte Dashboard-Oberfläche, die speziell für die Erforschung und Präsentation realer Daten entwickelt wurde.
Dieses Abschlussprojekt zeigt, wie durchdachtes Datendesign und domänenspezifische Erkenntnisse das volle Potenzial realer Daten für Innovationen im Gesundheitswesen erschließen können.
Anomoldy: KI-basierte Anomalieerkennung für Kunststoffspritzguss
Studierende: Marcia Cabral,
Melvin John,
Leon Siegel
Hadi-Plast ist ein familiengeführtes Spritzgussunternehmen, das seit 1977 zertifizierte technische Präzisionsteile aus Thermoplasten herstellt. Die Kunststoffteile kommen in zahlreichen Branchen zum Einsatz – von der Automobil- bis zur Elektronikindustrie –, wo gleichbleibend hohe Qualität entscheidend ist. Die visuelle Qualitätsprüfung erfolgt jedoch oft noch manuell, was zeitaufwändig ist und zu Schwankungen in den Ergebnissen führen kann. Das Studentenprojekt Anomoldy setzt hier an und entwickelt eine automatisierte Lösung zur Fehlererkennung auf Basis bildgestützter Anomalieerkennung.
Statt für jeden möglichen Fehler gekennzeichnete Beispiele zu benötigen, nutzte das Team Unsupervised Learning, um ein Modell des „Normalzustands“ zu erstellen. Jede deutliche Abweichung wird dabei als potenzielle Anomalie erkannt – besonders praktisch in Szenarien, in denen fehlerhafte Beispiele selten oder sehr unterschiedlich sind.
Die Gruppe entwickelte eine auf Streamlit basierende Oberfläche, die neuronale Netzwerkmodelle aus der Anomalib-Bibliothek einsetzt, darunter Patchcore, PaDiM, CFlow und EfficientAD. Die Anwendung verarbeitet hochgeladene Bilder der Bauteile und hebt potenzielle Anomalien mithilfe von Heatmaps hervor.
Um die Modellleistung zu verbessern, führten die Studierenden Vorverarbeitungsschritte wie skalierungs- und rotationsabhängiges Template-Matching durch, um das Bauteil vom Hintergrund zu isolieren. Ausserdem simulierten sie Defekte – beispielsweise Kratzer, abgeschnittene Ecken oder fehlende Pins – auf sauberen Bildern, um den Datensatz künstlich zu erweitern und die Sensitivität der Modelle zu testen.
Im Verlauf des Projekts untersuchte das Team, wie die Bildqualität und unterschiedliche Augmentierungsmethoden die Robustheit des Modells beeinflussen. Das System konnte subtile Defekte auf neuen, unbekannten Daten (Bildern) mit einer Genauigkeit von 96 % erkennen und zeigte damit seine Fähigkeit zur Generalisierung.
Das daraus resultierende Tool bildet die Grundlage für eine automatisierte Qualitätskontrolle in der Kunststoffteilfertigung und hat das Potenzial, die Inspektionszeit zu verkürzen und die Konsistenz zu verbessern.
Automatisierung des Abschlussberichts
Studierende: Sujay Ray,
Amos Schtalheim, PhD,
Aiyham Katranji,
Marco Taglione
VSL International ist ein spezialisiertes Bauunternehmen, das sich auf die Planung, den Bau, die Instandsetzung, die Modernisierung und den Erhalt von Verkehrsinfrastrukturen, Gebäuden und Energieerzeugungsanlagen konzentriert.
Abschlussberichte spielen im Bauwesen eine entscheidende Rolle: Sie halten alles fest – von gewonnenen Erkenntnissen und Risiken bis hin zu Vertragsergebnissen und Produktivität. Die Erstellung solcher Berichte bedeutete bisher, stundenlange Interviews auszuwerten und Hunderte Seiten Projektunterlagen zu durchforsten – eine zeitaufwändige und fehleranfällige Aufgabe.
Ein interdisziplinäres Team – Aiyham, Sujay, Marco und Amos – machte sich daran, den komplexen Prozess der End-of-Site-(EoS-)Berichterstattung für Grossbauprojekte zu automatisieren. Durch den Einsatz von KI in einem traditionell manuellen und zeitaufwändigen Workflow entwickelten sie eine effiziente digitale Pipeline – und sammelten dabei wertvolle Erkenntnisse.
Die Lösung: Ein KI-gestützter Berichtsworkflow
Das Team entwarf und entwickelte ein End-to-End-System zur halbautomatischen Erstellung strukturierter EoS-Berichte. Ihr Ansatz verbindet moderne KI mit praktischem Ingenieurswissen:
- Intelligentes Hochladen und Übersetzen: Nutzer laden Rohtranskripte von Interviews und Projektunterlagen hoch. Das System erkennt und übersetzt Dateien bei Bedarf automatisch ins Englische, wobei Sprecherrollen und fachliche Sprache erhalten bleiben.
- Intelligentes Parsen: Transkripte werden in ein Frage-Antwort-Format überführt, Füllwörter entfernt und fragmentierte Sätze zur besseren Lesbarkeit zusammengeführt.
- Automatisches Abgleichen von Fragen: Jeder Satz aus den Interviews wird semantisch mit den indexierten EoS-Fragen abgeglichen, sodass freie Gespräche in ein strukturiertes Berichtswesen überführt werden – basierend auf GPT-Modellen.
- Quellenvergleich: Für jedes Thema vergleicht das System die Antworten aus den Transkripten und Dokumenten und wählt mithilfe von KI die relevantesten Informationen aus.
- Strukturierte Datenerfassung: Wichtige Felder wie Ja/Nein, Schlüsselwörter, quantitative Ergebnisse und zusammenfassende Kommentare werden mithilfe von Prompt Engineering für jeden Berichtsabschnitt extrahiert.
- Nachverfolgbare, überprüfbare Ergebnisse: Das Endergebnis besteht aus sauberen, prüffähigen CSV-Tabellen und Management-Zusammenfassungen, alle rückverlinkt auf die Originalquellen
- Alles wird über eine benutzerfreundliche Webanwendung auf Basis von Streamlit bereitgestellt, sodass die Bauteams die Berichte mit minimalem Aufwand überprüfen, anpassen und herunterladen können.
Wichtige Ergebnisse
Reduzierter manueller Aufwand: Bis zu 80 % des EoS-Berichtsworkflows sind nun automatisiert.
Konsistente und präzise Ergebnisse: Alle Daten sind stets auf ihre Originalquelle zurückführbar, was Transparenz und Prüfbarkeit gewährleistet.
Schnellere Berichterstellung: Was früher Tage dauerte, kann nun in wenigen Stunden erledigt werden.
Gewonnene Erkenntnisse
- Menschliches Fachwissen ist wichtig: Fachbegriffe und die Projektlogik mussten während des gesamten Automatisierungsprozesses sorgfältig berücksichtigt werden.
- Die besten Ergebnisse erzielen hybride Ansätze: Die Kombination von Erkenntnissen aus Transkripten und zusätzlichen Dokumenten liefert reichhaltigere und verlässliche Daten.
- Human-in-the-Loop-Design:Die Anwendung wurde so konzipiert, dass Ingenieure und Projektleiter die Ergebnisse prüfen und validieren können – Expertise bleibt dabei zentral.
Wie geht es weiter?
Mit diesem Projekt hat das Team gezeigt, wie KI und Fachwissen selbst hoch spezialisierte Arbeitsabläufe verändern können. Zu den nächsten Schritten gehören die Skalierung des Systems auf neue Projekte, die Verfeinerung der Klassifizierungslogik und die Untersuchung der Integration mit Projektmanagement-Tools für eine vollständige digitale End-to-End-Berichterstattung.
Möchten Sie mehr über die Technologie und den Arbeitsablauf hinter dieser Lösung erfahren? Wenden Sie sich an das Team!
WaitNoMore: Vorhersage von Wartezeiten für Pannenhilfe
Studierende: David Fritsch,
Gaurav Jauhri, und
Guilherme Samora
Die Assistance Partner GmbH & Co. KG verbindet Versicherungsunternehmen mit Pannendienstleistern und sorgt dafür, dass Autofahrer bei einer Panne schnell Hilfe erhalten. Eine zentrale Herausforderung ist es, Kunden eine verlässliche geschätzte Ankunftszeit (ETA) für Abschlepp- oder Reparaturfahrzeuge bereitzustellen. Derzeit werden diese ETAs von den Mitarbeitern der Dienstleister manuell ins System eingetragen. Das Unternehmen wollte prüfen, ob sich mithilfe von Machine Learning bessere Ergebnisse erzielen lassen.
David, Gaurav und Guilherme starteten mit einem Datensatz von 17.000 Vorfällen von vier großen Partnern, der 19 nutzbare Merkmale enthielt – darunter Zeitstempel der Anfragen, geografische Koordinaten von Vorfällen und Dienstleistern, Art des Einsatzes sowie Fahrzeuginformationen. Um den Datensatz anzureichern, erstellten sie 65 abgeleitete Merkmale, darunter Wetterbedingungen zum Zeitpunkt und Ort des Vorfalls, Strassendistanz und Fahrzeit unter Berücksichtigung historischer Verkehrsdaten, Indikatoren für die aktuelle Auslastung (jüngste Einsätze pro Dienstleister) sowie Defektkategorien.
Anschließend testeten sie eine breite Palette von Machine-Learning-Modellen – von einfachen Regressionsverfahren bis hin zu komplexeren Architekturen wie künstlichen neuronalen Netzen (ANNs) –, um Muster zu identifizieren, die die ETA-Vorhersagen verbessern könnten.
Trotz umfangreicher Feature-Engineering-Schritte und zahlreicher Experimente war die Modellleistung nahezu identisch mit einer einfachen Baseline: der durchschnittlichen Wartezeit pro Dienstleister. Dies zeigte, dass der aktuelle Datensatz nur begrenztes Potenzial für wesentliche Verbesserungen durch Machine Learning bietet.
Anstatt ein Modell mit begrenztem Nutzen umzusetzen, schlugen wir drei praxisnahe Schritte vor:
- Realistische ETAs in der Anbieter-App vorauswählen: Den aktuell voreingestellten Standardwert von 5 Minuten durch den jeweiligen historischen Durchschnittswert des Anbieters ersetzen. Das reduziert das manuelle Scrollen in 5-Minuten-Schritten, verringert den Aufwand bei der Fallannahme und erleichtert es den Anbietern, eine realistische Wartezeit auszuwählen.
- ETA-Genauigkeit als KPI einführen: Die Genauigkeit der ETA in die Leistungsbewertung der Anbieter aufnehmen. Dies würde die Anbieter dazu motivieren, ihre Schätzungen stärker an den aktuellen Bedingungen statt an festen Standardwerten auszurichten.
- Datenerfassung verbessern: Echtzeitinformationen wie den aktuellen Standort von Fahrzeugen und Fahrern hinzufügen. Dadurch entstehen fallbezogene Signale über die historischen Durchschnittswerte hinaus, was zukünftige ML-Ansätze praktikabler machen kann.
- Das zentrale Ergebnis dieses Projekts war eine klare, evidenzbasierte Schlussfolgerung: Mit den derzeit verfügbaren Daten lässt sich die ETA-Vorhersage durch ein Machine-Learning-Modell nicht sinnvoll verbessern. Diese Klarheit hilft, künftige interne Diskussionen zu vermeiden, und lenkt die Anstrengungen stattdessen auf Prozess- und Datenänderungen, die unmittelbare, praktische Vorteile für Kunden und Anbieter bringen können.
Die Arbeit des Teams wird Assistance Partner dabei unterstützen, künftig fundiertere Entscheidungen zu treffen – sei es, zu einem späteren Zeitpunkt Machine Learning einzusetzen oder weiterhin interne Prozesse zu optimieren, um Kunden präzisere voraussichtliche Ankunftszeiten mitzuteilen.
Schätzung der Motorradproduktion in Europa
Studierende: Nargiz Rüter,
Valentina Pavlovic,
Giorgio Semadeni
Power Systems Research (PSR), ein führendes Unternehmen im Bereich globaler Motor- und Antriebsstrang-Analysen, arbeitete mit unserem Team zusammen, um den Mangel an aktuellen, strukturierten Daten auf dem europäischen Motorradmarkt zu beheben. Ziel war es, eine belastbare Datenpipeline zur Schätzung der Motorradproduktionsvolumina aufzubauen. Dies wurde durch die Nutzung öffentlich zugänglicher Registrierungs-, Import- und Exportdaten aus Italien, Frankreich, Deutschland, Spanien und dem Vereinigten Königreich erreicht.
In der Anfangsphase des Projekts ging es darum, Daten aus öffentlichen Quellen zu sammeln, darunter staatliche Portale, Webseiten von Motorrad-Enthusiasten und kommerzielle Handels-APIs. Jedes Land stellte dabei eigene Herausforderungen bei der Datenerfassung dar: In Spanien waren die Daten häufig in PDFs eingebettet, während sie in Frankreich in uneinheitlichen Bildformaten vorlagen.
Um diese Hürden zu überwinden, wurde ein ausgeklügeltes hybrides System zur Datenerfassung entwickelt. Dieses System kombiniert regelbasierte Logik für strukturierte Daten, Optical Character Recognition (OCR) für bildbasierte Texte und fortgeschrittenes, von Large Language Models (LLMs) unterstütztes Parsing für komplexe oder semi-strukturierte Formate, um maximale Effizienz und Genauigkeit bei der Datenerfassung zu gewährleisten.
Aufgrund begrenzter Trainingsdaten für modellbasierte Prognosen wurde eine grundlegende ökonomische Formel angewendet, um die Produktionsvolumina abzuleiten:
Produktion = Registrierungen + Exporte – Importe
Anhand dieser Formel wurde eine geschätzte Produktionszahl für jedes Land ermittelt. Um ein zuverlässiges Maß für die Unsicherheit zu erhalten, wurden Fehlbeträge und Überschüsse mit 95-prozentigen Konfidenzintervallen quantifiziert, wodurch PSR ein klareres Verständnis der potenziellen Produktionsspannen erhielt.
Das Projekt lieferte mehrere wichtige Ergebnisse:
- Vereinheitlichte Zulassungsdaten: Unterschiedliche Motorradzulassungsdaten aus allen fünf Zielländern wurden erfolgreich zusammengeführt und standardisiert, sodass ein konsistenter Datensatz für die Analyse zur Verfügung steht.
- Geschätztes Produktionsdefizit: Die Analyse zeigte ein geschätztes Produktionsdefizit von etwa 1,99 Millionen Einheiten, mit einer berechneten Spannweite von −820.000 bis −2,32 Millionen Einheiten, wodurch ein nuanciertes Bild des potenziellen Defizits entstand.
- Vorgeschlagene Automatisierungsstrategien: Für die zukünftige Datenerfassung und -anreicherung wurden umfassende Automatisierungsstrategien vorgeschlagen, um Prozesse zu optimieren und die langfristige Nachhaltigkeit der Marktdaten-Pipeline zu gewährleisten.
Durch die Bereitstellung einer tiefergehenden Markttransparenz verschaffte das Team PSR detaillierte Einblicke für präzisere und zeitnahe Geschäftsentscheidungen für Partner auf dem europäischen Motorradmarkt. Die robuste Datenpipeline und die entwickelten Methoden bilden eine wichtige Grundlage für zukünftige skalierbare, automatisierte Prognosetools. Die Zusammenarbeit verwandelte fragmentierte Daten in strukturierte, umsetzbare Erkenntnisse, schloss eine kritische Datenlücke und schuf einen wiederholbaren Rahmen für kontinuierliche Marktinformationen.
Fazit
Zum Abschluss der Data Science-Abschlussprojekte mit Gruppe Nr. 31 möchten wir uns ganz herzlich bei den Partnerunternehmen bedanken, die diese Reise so bereichert haben. Ihre realen Herausforderungen gaben unseren Studierenden die Möglichkeit, Grenzen zu überschreiten, ihre Fähigkeiten anzuwenden und kreative, praktische Lösungen zu entwickeln. Wir sind Ihnen für Ihr Vertrauen und Ihre Zusammenarbeit sehr dankbar.
An unsere großartigen Studierenden, die im Mai zu uns gestoßen sind: Was für eine aufregende Zeit das war! Eure harte Arbeit, Neugier und Entwicklung in den letzten Monaten waren einfach inspirierend. Wir sind stolz auf das, was ihr erreicht habt, und gespannt darauf, wohin euch eure Talente als Nächstes führen werden. Bleibt neugierig, bleibt kreativ, die Welt der Daten braucht mehr Köpfe als eure.
Für alle, die sich von diesen Erfolgen inspiriert fühlen und Interesse daran haben, ihren eigenen Weg in der Welt der Datenwissenschaft zu gehen: Wir freuen uns, unser nächstes Ausbildungsprogramm ankündigen zu dürfen. Besuche die Webseite der
Constructor Academy, um mehr zu erfahren und zu entdecken, wie du Teil der nächsten Data-Science-Kohorte werden kannst.