Die Implementierung eines maschinellen Lernmodells für das Ranking in einer E-Commerce-Suche erfordert einen gut durchdachten Ansatz für die Definition der Zielmetrik. In unserem Team validieren wir unsere Zielmetriken mit Online-Tests am Live-Verkehr. Dies erfordert sowohl eine lange Vorbereitungszeit als auch ausreichend lange Laufzeiten, um valide Ergebnisse zu erzielen. Die Auswahl von nur wenigen Kandidaten für den nächsten A/B-Test ist schwierig und verlangsamt uns erheblich. Was wäre also, wenn wir eine Möglichkeit hätten, die Kandidaten vorher zu bewerten, um eine fundiertere Entscheidung zu treffen?
Wir haben einen Ansatz entwickelt, um vorherzusagen, wie ein bestimmtes Ranking in einem Onsite-Test abschneiden wird. Wir nutzen historische Nutzerinteraktionsdaten aus Suchereignissen und versuchen, sie mit Ranking-Metriken wie NDCG zu korrelieren. Dies gibt uns Aufschluss darüber, wie gut das Ranking die Nutzerabsicht erfüllt. Dies soll kein Ersatz für einen echten A/B-Test sein, sondern ermöglicht es uns, das Feld der Kandidaten auf eine überschaubare Anzahl einzugrenzen. In diesem Vortrag werden wir unseren Ansatz zur Offline-Ranking-Validierung vorstellen und zeigen, wie er sich in der Praxis bewährt hat.
Hier ist eine Videoaufzeichnung der Berlin Buzzword vom 12. Juni 2022 mit dem Vortrag von Andrea und Yunus:
We have received your feedback.