Janis Iranee

Machine Learning, das die Produktion überlebt

Von Machbarkeit und Experimenten zu Pipelines, Monitoring und sicheren Releases.

  • Wert validieren bevor gebaut wird
  • Reproduzierbare Training/Scoring-Pipelines
  • Monitoring + Drift-Erkennung für stabile Performance
ML-Use-Case besprechen

Was ist das?

Zwei Tracks:

  • ML Discovery: Problem-Framing, Baselines, Evaluationsdesign
  • ML Engineering: Pipelines, Deployment, Monitoring, Governance

Für wen ist das?

  • Produkt-Teams mit einer neuen ML-Idee aber unklarem ROI
  • Bestehende ML-Systeme mit instabiler Performance
  • Teams, die reproduzierbare Pipelines brauchen (Compliance, Audits)
  • Engineering-Teams, die ML in Produktionsdienste integrieren

Typische Engagements

ML-Machbarkeit & Experiment-Sprint (2–4 Wochen)

  • Ziel und Evaluationsmethodik definieren
  • Baseline-Modelle + Fehleranalyse
  • Empfehlung: bauen/nicht bauen + Roadmap

Produktions-ML-Pipeline (4–12 Wochen)

  • Training/Evaluation/Scoring-Pipeline-Design
  • Automatisierte Evaluation und Monitoring
  • Versionierung + Rollback-Strategie
  • Integration mit Services/Datenplattform

Betrieb & Verbesserung (monatlich)

  • Regressionstests der Modellqualität
  • Drift-Untersuchung und Behebung
  • Periodische Re-Training-Entscheidungen

Deliverables

  • Experiment-Bericht (Discovery) mit Empfehlung
  • Produktionspipeline (Engineering) + Monitoring + Runbook
  • Dokumentation: Inputs/Outputs, Evaluation, bekannte Limitierungen
  • Übergabe: “Das Modell betreiben” Workshop
Für technische Leser
  • Experimentdesign (Train/Test-Splits, Leakage-Checks)
  • Robustheitstests über Accuracy hinaus
  • Feature-Drift-Monitoring zwischen Training und Scoring
  • Pipeline-Komponenten (Preprocess/Train/Evaluate/Score)
  • Modellversionierung, Rollback, Reproduzierbarkeit
  • Monitoring-Dashboards und Alerting
  • Datenschutz/Governance-Kontrollen bei sensiblen Daten

Warum ich gut darin bin

  • ML-Pipelines (Training/Evaluation/Scoring) mit modernem Tooling gebaut und gewartet
  • Experimente durchgeführt, um Geschäftsfragen über Accuracy hinaus zu beantworten
  • Drift-Monitoring und kontinuierliche Evaluation implementiert
  • Erfahrung bei der Integration von ML in Produktions-Workflows und Ergebniskommunikation

Wie ich arbeite

  • Mit Discovery starten, um das Falsche nicht zu bauen
  • Akzeptanzkriterien früh definieren
  • ML als Produkt behandeln: Monitoring, Ownership, Iterationskadenz

Kontakt aufnehmen

Haben Sie ein Projekt im Sinn? Ich antworte in der Regel innerhalb von 1-2 Werktagen.