In schnelllebigen Umgebungen ist Content oft schon veraltet, bevor ein signifikantes Testergebnis eines klassischen A/B-Tests vorliegt. Bandit-Algorithmen optimieren die Ausspielung des idealen Contents bereits zur Laufzeit: Auf Basis gegenwärtiger Informationen werden Aussagen über das wahrscheinliche Userverhalten getroffen.
Dabei reichen den Algorithmen oft schon wenige Informationen, um verhältnismäßig treffsichere Voraussagen zu liefern. Bandit-Algorithmen basieren auf vergleichsweise einfachen Optimierungsverfahren: Das Lernen durch Verstärkung (Reinforcement Learning) stellt eine größtmögliche Balance zwischen Exploration und Exploitation her.
Vorkenntnisse
* Interesse an smarter Echtzeitoptimierung
* Interesse an Reinforcement Learning
Lernziele
Verständnis der Eleganz einer Echtzeitoptimierung mit Bandit-Algorithmen
// Danny-Michael Busch
entwickelt seit 20 Jahren quer über verschiedene Branchen kommerzielle Software, aktuell bei neuland - Büro für Informatik . Besondere Interessenschwerpunkte sind seit jeher die künstliche Intelligenz und smarte Algorithmen. Aktuell arbeitet er im E-Commerce-Umfeld für einen der größten deutschen Online-Shops im Umfeld der Personalisierung.
// Jan Brusch
arbeitet seit über fünf Jahren im E-Commerce-Umfeld in verschiedenen Positionen. Dabei hat er sich seit jeher für die datengetriebene bzw. analytische Seite des Online-Handels interessiert und ist darüber zu seiner jetzigen Position als Softwareentwickler für einen großen internationalen Online-Shop gekommen.