Recency-, Frequency- und Monetary-Merkmale, Scrolltiefe, Gerätenutzung, Tageszeit und Einstiegsquelle spiegeln situativen Kontext. Korrekte Sessionisierung, kanalübergreifende De-Duplizierung und robuste Zeitfenster verhindern Verzerrungen. Durch Features mit klarer Kausalintuition – etwa Lieferfenster, Lagerstände, Servicelevel – vermeiden wir Scheinkorrelationen. Ein glaubwürdiger Featurekatalog dokumentiert Herkunft, Aktualisierungslogik und erlaubte Verwendungen, damit Teams verantwortungsvoll und reproduzierbar zusammenarbeiten können.
Artikelmerkmale, Varianten, Bündel, Substitute, Komplementärgüter und Kostengerüste bestimmen die Grenzen sinnvoller Preise. Saisonalität, Neuheitsgrad, Qualitätsstufen und Inhalte wie Garantien verändern wahrgenommenen Wert. Wir verknüpfen Margen und Nachfrageelastizitäten, um gefährliche Preisuntergrenzen zu schützen und Reserven realistisch zu nutzen. Monotone oder domänenkonforme Transformationen stabilisieren Lernprozesse, verbessern Interpretierbarkeit und reduzieren überraschende Empfehlungen im produktiven Einsatz.
Regularisierte lineare, logistische und elastische Modelle sind baseline-stark, transparent und schnell. Sie liefern solide Orientierung, wenn Features sauber konstruiert und Interaktionen gezielt eingesetzt werden. Mit robusten Verlustfunktionen, Zeitreihen-Splits und Cross-Validation entstehen belastbare Referenzen. Durch klare Residuenanalysen entdecken wir Muster, die komplexere Ansätze rechtfertigen, ohne voreilig zu überfitten oder operative Stabilität zu gefährden.
Random Forests, XGBoost, LightGBM und CatBoost erfassen nichtlineare Wechselwirkungen, kategoriale Feinheiten und fehlende Werte elegant. Quantilregression ermöglicht Intervalle statt Punktprognosen, was Preisempfehlungen vorsichtiger und robuster macht. Monotone Constraints, Kosten-sensible Verluste und Kalibrierung verbessern Verträglichkeit im Betrieb. Feature-Importanzen sollten mit SHAP oder Permutation validiert werden, um Scheineffekte von tatsächlich wirkungsvollen Treibern klar zu trennen.
Hierarchische Modelle teilen Information über Segmente, Produkte und Regionen, wodurch kalte Starts abgemildert werden. Posterior-Intervalle zeigen Unsicherheit offen und liefern natürliche Exploration-Impulse. Mit sinnvollen Priors, Domänenwissen und regelmäßiger Posterior-Predictive-Checks bleiben Empfehlungen nachvollziehbar. Kombiniert mit Simplizität in der Umsetzung entsteht ein System, das Schwankungen respektiert, robuste Entscheidungen fördert und Stakeholdern Sicherheit vermittelt.
Visualisierungen allein reichen nicht. Wir verbinden SHAP-Werte mit konkreten Kundensituationen und plausiblen Narrativen. Beispielkataloge illustrieren, wann Lieferzeit wichtiger als Rabatt ist, oder Qualität Vorrang vor Preis hat. So vermitteln wir Funktionsweise und Grenzen, ohne Details zu überfordern, und schaffen eine gemeinsame Sprache zwischen Data Science, Produkt, Recht und Kundenservice.
Eingangsverteilungen, Feature-Drift, Ziel-Drift und Performance-Metriken werden kontinuierlich beobachtet. Alarmregeln, Champion-Challenger-Setups und periodische Re-Kalibrierung verhindern schleichende Erosion. Backtesting, virtuelles Rollout-Replay und synthetische Szenarien ergänzen reale Daten. Diese Disziplin spart Geld, schützt Reputation und sorgt dafür, dass Preisempfehlungen konsistent und vertrauenswürdig bleiben, auch wenn Märkte sich plötzlich verändern.