Aktuelle Themen im E-Commerce verweisen auf den Einsatz von Recommendation-Systemen:
- Produktkataloge werden immer umfangreicher. Kunden benötigen Hilfestellungen, um sich in ihnen zurechtzufinden.
- Methoden zur automatischen Segmentierung von Benutzern, und einer darauf aufbauenden individuellen Angebotspräsentation sind inzwischen allgemein bekannt und verfügbar. Auf solche Empfehlungsalgorithmen zu verzichten, bedeutet einen Wettbewerbsnachteil.
- Konkurrenzdruck führt zu sinkenden Margen. Ein immer individuelleres, zielgenaueres Upselling und die positive Emotionalisierung des Einkaufserlebnisses rücken in den Mittelpunkt der Shopkonzeption.
Am Markt haben sich Standardprodukte und -lösungen etabliert. Je nach betrachtetem Produkt und dessen Reifegrad zeigen sich folgende Nachteile:
- Fertige Produkte bzw. Software-as-a-Service-Lösungen bieten meist nur item-based Recommendations.
- Die Anpassungsfähigkeit und Ausbauoptionen sind begrenzt.
- Gleiches gilt für die Kombination mehrerer Recommender-Algorithmen, z.B. für user- und content-based Recommender.
- Es fallen erhebliche Lizenzkosten an.
- Die Auslagerung der Recommendation-Logik bedeutet eine Abhängigkeit vom betreffenden Anbieter.
Als Alternative bietet sich eine Individuallösung auf Basis von Open-Source-Technologien wie Apache Hadoop, Apache Mahout und Apache Solr an. Im folgenden Teil wird skizziert, wie das Big Data Analytics Team ein solches Projekt bestreitet.
Vorgehen
Das Einsatzgebiet von Recommendation-Engines ist sehr weitreichend. Neben dem E-Commerce gibt es bereits erfolgreiche Anwendungsszenarien z.B. im Online-Advertising, in der Finanz- und Versicherungsbranche und in der Partnervermittlung. Solche Systeme basieren immer auf spezifischen, kontextabhängigen Daten und werden individuell für ihren Einsatzweck ausgelegt. Es gibt also keine allgemeingültigen Empfehlungssysteme, die Gemeinsamkeit solcher Projekte liegt vielmehr in ihrem explorativen Ansatz, der auf die folgenden Meilensteine abzielt:
- Use Case Discovery: Formulierung von Anwendungsfällen, Prüfung auf Relevanz, Bestätigung oder Widerlegung der praktischen Machbarkeit
- Validierung der Datenbasis: Sicherstellung der Verfügbarkeit und Eignung der zugrundegelegten Rohdaten
Erst nach der Abstimmung dieser Eckpunkte mit allen Stakeholdern lohnt sich eine Investition in die Umsetzung einzelner Features. Hier empfiehlt sich der Einsatz agiler Methoden wie Scrum oder Kanban, zur Sicherstellung der folgenden Vorteile:
- Schnelle Bewältigung von Unsicherheit: Agile Entwicklungsmethoden ermöglichen dem Entwicklerteam, in kurzer Zeit eine Vielzahl von Algorithmen und Konfigurationsvarianten durchzutesten.
- Laufende Qualitätssteigerung: Ein Vorgehen in Iterationen sichert die laufende Erkennung und sofortige Nutzbarmachung von Erkenntnissen, sobald sie während der Entwicklung entstehen.
- Laufende Performanceoptimierung: Dass sich eine einmal programmierte Funktion beliebig skalieren lässt, ist eher die Ausnahme als die Regel. Scrum integriert die Notwendigkeit des Reengineerings, und verhindert so grössere Relaunch-Projekte.
Exemplarischer Projektplan
Validierung der Datenbasis
Das Data Engineering Team von YMC leistet in diesem ersten Schritt:
- Identifizierung von Zieldaten,
- Bestandsaufnahme von Datenquellen und aktuellen Workflows, auch hinsichtlich Drittsysteme,
- Identifizierung der wichtigsten Stakeholder, sowie deren Zusammenhang zu vorhandenen Ressourcen und Projekten sowie
- Evaluation und Auswahl von Hadoop-verwandten Technologien, einschließlich Sprachen, Clustering-Algorithmen und Recommendation-Systemen
und verfolgt damit folgende Ziele:
- Sichtung der verfügbaren Datenbestände,
- Validierung der Datenbestände aus technischer Sicht,
- Entwicklung eines “Big Picture” zur Identifizierung werthaltiger Auswertungschancen,
- Konzeption zusätzlicher Datenerhebungen (User-Tracking und -Profiling) und
- Konzeption und Abstimmung der funktionalen Umsetzung.
Abschliessend wird diese Phase schriftlich dokumentiert, wobei Antworten auf die vorgenannten Zielsetzungen enthalten sind und die Projektstrategie aktualisiert und detailliert wird. Je nach Art und Umfang der Ausgangsdaten planen wir hier einen Zeitraum von 1-3 Wochen ein.
Im nächsten Schritt werden Modelle im “supervised learning”-Modus entwickelt. Mehr dazu können Sie im kommenden Beitrag erfahren.
Stehen Sie vor der Herausforderung ein Empfehlungssystem einzuführen oder zu konzipieren? Dann wird Ihnen dieser Beitrag sicher helfen. Alle weiteren Details erläutere ich Ihnen gern persöhnlich.
The post Wie entwickelt YMC eine Recommendation Engine für eine eCommerce Plattform? appeared first on YMC AG.