SlideShare ist ein Scribd-Unternehmen logo
1 von 4
Downloaden Sie, um offline zu lesen
E-Commerce Insights Plattform für den SAP Store
Gröschel | Paulus, Stand: 10.10.2020
SAP SE
Benjamin Herrmann
Head of Digital Commerce
E-Mail: benjamin.herrmann@sap.com
Tel.: +49 151 62345562
Hochschule Mannheim
Prof. Dr. Michael Gröschel
Prof. Dr. Sachar Paulus
Fakultät für Informatik
Paul-Wittsack-Straße 10
D-68163 Mannheim
Tel.: +49 (0) 621 292 6764
E-Mail:
m.groeschel@hs-mannheim.de
s.paulus@hs-mannheim.de
www.informatik.hs-mannheim.de
Analyse-Dashboards (SAP Analytics Cloud)
Das Projekt wurde von den Studierenden Minh Quan
Dong, Mehmet Cicek, Fadi Kasabji, Sebastian Schä-
fer und Christian Knorr (im Bild von links nach rechts)
bearbeitet.
Für https://www.sapstore.com/, den SAP
Online Shop, analysierten Studierende des
Studiengangs Unternehmens- und Wirt-
schaftsinformatik an der Hochschule Mann-
heim im Rahmen ihres Projektsemesters im
Wintersemester 2019/2020 zur Verfügung
gestellte Daten und entwickelten eine Platt-
form, um Umsätze im E-Commerce zu
prognostizieren. Zunächst wurde eine Big
Data Plattform mit Kafka entwickelt, die per
Stream eingehende Daten analysieren
kann. Auf dieser Basis entwickelten insge-
samt vier Projektteams mit je fünf Studie-
renden jeweils eigene Lösungen zur Ana-
lyse und Prognose. Die Ergebnisse wurden
außerdem mit geeigneten Tools visuali-
siert. Das Team 5for2 entwickelte ein auf
SAP Analytics Cloud basierendes Analyse-
und Forecast-Tool mit dem Fokus Kunden-
segmentierung.
Ausgangssituation
Das Unternehmen SAP vertreibt im eigenen SAP
Store Softwarelizenzen und Dienstleistungen. Die
Bedeutung des E-Commerce-Shops im B2B-Ge-
schäft nimmt stetig zu. Daraus ergibt sich die Heraus-
forderung, die Umsätze verlässlich zu prognostizie-
ren. Außerdem bietet es sich an, die tatsächliche
Customer Journey zu analysieren. Die Analyse führt
idealerweise zu den Schritten im Kaufprozess, die die
Kaufentscheidung beeinflussen, und die sich sodann
optimieren lassen. Ein Problem in der aktuellen Situ-
ation ist, dass es verschiedenste Datenquellen für
das E-Commerce-Geschäft gibt, die für die Analyse
zusammengeführt werden müssen.
Aufgabenstellung und Ziele
Ziel des Projekts war es, eine horizontal skalierbare
Big Data Analyseplattform zu entwickeln, um die
Rohdaten aus den unterschiedlichen Datenquellen
zu streamen und zu speichern. Die Rohdaten sollten
angemessen verarbeitet werden, um bessere Einbli-
cke zu den Umsätzen und zu weiteren Vertriebsdaten
zu erhalten. Des Weiteren sollten Zusammenhänge
in den Daten identifiziert, und auf dieser Basis eine
Umsatzprognose (Forecast) erstellt werden. Die Er-
gebnisse sollten außerdem mit einem geeigneten
Werkzeug visualisiert werden.
Projektmanagement
Ein wesentlicher Aspekt war es, gelernte Projektma-
nagement- und Software Engineering Methoden an-
zuwenden. Mit deren Hilfe kann ein erfolgreicher Ab-
schluss des Projekts sichergestellt werden. Auch re-
gelmäßige Treffen mit den Stakeholdern dienten die-
sem Zweck. Die agile Projektmanagement-Methode
Kanban ermöglichte es, neben der kontinuierlichen
Planung zum Projektfortschritt, Änderungswünsche
der Kundenanforderungen kurzfristig mit einzupla-
nen. Eines der ersten Arbeitspakete war eine Itera-
tion des Design-Thinking-Prozesses durchzuführen,
um die wesentlichen Ziele des Projektes näher zu be-
leuchten. Entsprechende Methoden wurden im Rah-
men eines Design-Thinking-Workshops bei SAP ver-
mittelt.
Persona als Zwischenergebnis des Design Thinking
Prozesses
Softwarearchitektur und Technologien
Die Architektur der Infrastruktur basiert auf einem
gängigen mehrschichtigen Aufbau der einzelnen
Komponenten, der hier skizziert ist:
Um den Kundenanforderungen gerecht zu werden,
wurde das Framework Apache Kafka für das Strea-
ming der Daten verwendet. Die Rohdaten, die über
Apache Kafka geschickt wurden, wurden in der
Datenbank PostgreSQL persistiert und mit dem Big-
Data-Framework Apache Flink verarbeitet. Für die
Verarbeitung waren auf Java basierende Flink-Jobs
erforderlich, mit denen unter anderem Forecast-
Algorithmen umgesetzt wurden. Die analysierten
Daten wurden wiederum in PostgreSQL gespeichert.
Die visuelle Darstellung sowie weitere Analysen
erfolgten auf Kundenwunsch mit der SAP eigenen
Softwarelösung SAP Analytics Cloud. Um eine verti-
kale Skalierbarkeit zu gewährleisten erfolgte die Im-
plementierung der Frameworks in der Container-
software Docker.
Ergebnisse
Neben der Lösung, welche dem Kunden detaillierte
Einblicke in Transaktionsdaten, Vorhersagen und
Kundensegmentierung lieferte, wurden sämtliche
Projektergebnisse in einer ausführlichen Dokumenta-
tion vermerkt. Weiterhin wurde ein Benutzerhand-
buch erstellt. Beschreibungen der Softwarearchitek-
tur und der Nutzung der oben genannten Frame-
works waren Teil einer separat erstellten Dokumen-
tation zur Infrastruktur. Ein Vergleich der genutzten
Visualisierungstechnologien, sowie das Verknüpfen
der Ergebnisse der einzelnen Teams zu einem „Big
Picture“ rundeten das Ergebnis ab.
Fazit
In enger Zusammenarbeit von Kunden und Studie-
renden konnte in der Zeit von 12 Wochen ein echter
Mehrwert für alle Beteiligten geschaffen werden. Die
Studierenden haben eine intensive und realitätsnahe
Lernerfahrung gemacht und realistische Einblicke in
den Ablauf und die Herausforderungen von Kunden-
projekten erhalten. Zusätzlich haben sie moderne
Technologien im praktischen Einsatz kennengelernt.
Der Kunde hat einen Prototyp erhalten, der aufzeigt,
wie mit einer zeitgemäßen Infrastruktur eine skalier-
bare Plattform aufgebaut werden kann, in der Statis-
tiken, Analysen und Prognosen aus den E-Com-
merce Daten gewonnen werden können.
E-Commerce Insights Plattform für den SAP Store
Gröschel | Paulus, Stand: 10.10.2020
SAP SE
Benjamin Herrmann
Head of Digital Commerce
E-Mail: benjamin.herrmann@sap.com
Tel.: +49 151 62345562
Hochschule Mannheim
Prof. Dr. Michael Gröschel
Prof. Dr. Sachar Paulus
Fakultät für Informatik
Paul-Wittsack-Straße 10
D-68163 Mannheim
Tel.: +49 (0) 621 292 6764
E-Mail:
m.groeschel@hs-mannheim.de
s.paulus@hs-mannheim.de
www.informatik.hs-mannheim.de
Customer-Journey Visualisierung als Flowchart
Das Projekt wurde von den Studierenden Berkan
Ahad, Daniel Mücke, Eyüp Ünlü, Niklas Lahann und
Luis Alves de Souza (im Bild von links nach rechts)
bearbeitet.
Für https://www.sapstore.com/, den SAP
Online Shop, analysierten Studierende des
Studiengangs Unternehmens- und Wirt-
schaftsinformatik an der Hochschule Mann-
heim im Rahmen ihres Projektsemesters im
Wintersemester 2019/2020 zur Verfügung
gestellte Daten und entwickelten eine Platt-
form, um Umsätze im E-Commerce zu
prognostizieren. Zunächst wurde eine Big
Data Plattform mit Kafka entwickelt, die per
Stream eingehende Daten analysieren
kann. Auf dieser Basis entwickelten insge-
samt vier Projektteams mit je fünf Studie-
renden jeweils eigene Lösungen zur Ana-
lyse und Prognose. Die Ergebnisse wurden
außerdem mit geeigneten Tools visuali-
siert. Das Team Pentablend kümmerte sich
speziell um die Entwicklung eines neuen
Konzepts zur Datenerfassung der Aktivitä-
ten im Webshop und die Verarbeitung und
Nutzung der erfassten Daten. So sollte die
Möglichkeit bestehen, auf bestimmte Nut-
zeraktionen automatisiert zu reagieren. Die
Visualisierung der Customer Journey durch
Flowcharts ermöglicht das Nachvollziehen,
wie sich Kunden virtuell durch den Shop be-
wegen.
Ausgangssituation
Das Unternehmen SAP vertreibt im eigenen SAP
Store Softwarelizenzen und Dienstleistungen. Die
Bedeutung des E-Commerce-Shops im B2B-Ge-
schäft nimmt stetig zu. Daraus ergibt sich die Heraus-
forderung, die Umsätze verlässlich zu prognostizie-
ren. Außerdem bietet es sich an, die tatsächliche
Customer Journey zu analysieren. Die Analyse führt
idealerweise zu den Schritten im Kaufprozess, die die
Kaufentscheidung beeinflussen, und die sich sodann
optimieren lassen. Ein Problem in der aktuellen Situ-
ation ist, dass es verschiedenste Datenquellen für
das E-Commerce-Geschäft gibt, die für die Analyse
zusammengeführt werden müssen.
Aufgabenstellung und Ziele
Ziel des Projekts war es, eine horizontal skalierbare
Big Data Analyseplattform zu entwickeln, um die
Rohdaten aus den unterschiedlichen Datenquellen
zu streamen und zu speichern. Die Rohdaten sollten
angemessen verarbeitet werden, um bessere Einbli-
cke zu den Umsätzen und zu weiteren Vertriebsdaten
zu erhalten. Des Weiteren sollten Zusammenhänge
in den Daten identifiziert werden, und auf dieser Ba-
sis eine Umsatzprognose (Forecast) erstellt werden.
Die Ergebnisse sollten außerdem mit einem geeigne-
ten Werkzeug visualisiert werden.
Big Data Plattform
Die Basisarchitektur, auf der alle Gruppen aufbauen,
besteht aus einem Messaging Service (Apache
Kafka), einer zentralen Datenbank (PostgreSQL) und
einem Big-Data Framework (Apache Flink). Alle Ser-
vices laufen auf Docker und sind damit als Container
sehr flexibel handhabbar.
Lösungsansatz
Für die Lösung wurde das Framework Unomi aus der
Apache-Familie genutzt
Unomi erlaubt das Sammeln, Kategorisieren und
Speichern von Ereignisdaten von Webseiten. Das
Framework wurde in eine Testwebsite, die dem SAP
Online Shop mit Produktseiten und Formularen nach-
empfunden war, integriert und angepasst. Die Ereig-
nisdaten werden bei der Nutzung des Frameworks
persistiert und in sogenannten Profilen gespeichert.
Diese Profile wurden durch Benutzereingaben, bei-
spielsweise auf Checkout-Seiten vervollständigt.
Dadurch war es möglich, den zunächst anonymen
Profilen einen Charakter zu geben. Weiterhin wurde
ein Modell entworfen, um den einzelnen Produkten
bestimmte Scores zuzuordnen, mit denen später die
Produktinteressen differenziert werden können.
Wichtig war dabei, dass alle Produktinteressen direkt
den Profilen zugeordnet und auch laufend aktualisiert
wurden. Auf dieser Basis konnten wichtige Regeln
implementiert werden, die es ermöglichten, auf die
Aktionen der Nutzer zu reagieren und damit die (po-
tentiellen) Kunden gezielt zu einem Abschluss zu len-
ken. Dazu wurde ein Maßnahmenpool definiert, mit
dem direkt und angemessen auf die entsprechende
Kundengruppe reagiert werden kann. Übergeordne-
tes Ziel war es, Kunden zu binden und die Conversi-
onrate für jedes Segment zu erhöhen. Die Visualisie-
rung der Customer Journey Maps wurde mit dem Ja-
vascript-basierten Framework D3 realisiert. Die Da-
tenquelle für die Visualisierung waren die vorher ge-
sammelten Besucher- und Nutzungsprofile. Ein wei-
terer wichtiger Schritt war die Einführung einer Seg-
mentierung, die es ermöglichte, mit den Ereignissen
und den Profilen in einer 3-Schicht-Architektur zu-
sammenzuarbeiten.
Ergebnisse
Es wurde ein Werkzeug als Proof-of-Concept zur
Verfügung gestellt, mit dem alle Aktionen auf der
Website und die Daten der Benutzer genau verfolgt
werden können. Die Daten werden gesammelt und
kategorisiert. So können völlig neue Informationen
über die Interessen an Produkten gewonnen und ein-
zelne Nutzer gezielt kategorisiert werden. Durch die
implementierte Recommendation-Engine ist es mög-
lich, personalisiert und automatisiert auf einzelne
Nutzer sowie auf ganze Gruppen zu reagieren. Dar-
über hinaus werden die protokollierten Ereignisse vi-
sualisiert, um die Punkte zu finden, an denen viele
potentielle Kunden den Prozess verlassen.
Fazit
In enger Zusammenarbeit von Kunden und Studie-
renden konnte in der Zeit von 12 Wochen ein echter
Mehrwert für alle Beteiligten geschaffen werden. Die
Studierenden haben eine intensive und realitätsnahe
Lernerfahrung gemacht und realistische Einblicke in
den Ablauf und die Herausforderungen von Kunden-
projekten erhalten. Zusätzlich haben sie moderne
Technologien im praktischen Einsatz kennengelernt.
Der Kunde hat einen Prototyp erhalten, der aufzeigt,
wie mit einer zeitgemäßen Infrastruktur eine skalier-
bare Plattform aufgebaut werden kann, in der Statis-
tiken, Analysen und Prognosen aus den E-Com-
merce Daten gewonnen werden können.
E-Commerce Insights Plattform für den SAP Store
Gröschel | Paulus, Stand: 10.10.2020
SAP SE
Benjamin Herrmann
Head of Digital Commerce
E-Mail: benjamin.herrmann@sap.com
Tel.: +49 151 62345562
Hochschule Mannheim
Prof. Dr. Michael Gröschel
Prof. Dr. Sachar Paulus
Fakultät für Informatik
Paul-Wittsack-Straße 10
D-68163 Mannheim
Tel.: +49 (0) 621 292 6764
E-Mail:
m.groeschel@hs-mannheim.de
s.paulus@hs-mannheim.de
www.informatik.hs-mannheim.de
Screenshot des Dashboards
Das Projekt wurde im Wintersemester 2019/20 von
den Studierenden Enes Ördek, Hendrik Mehlich,
Mike Möck, Safak Kurt und Razau Kheder bearbeitet.
Für https://www.sapstore.com/, den SAP
Online Shop, analysierten Studierende des
Studiengangs Unternehmens- und Wirt-
schaftsinformatik an der Hochschule Mann-
heim im Rahmen ihres Projektsemesters im
Wintersemester 2019/2020 zur Verfügung
gestellte Daten und entwickelten eine Platt-
form, um Umsätze im E-Commerce zu
prognostizieren. Zunächst wurde eine Big
Data Plattform mit Kafka entwickelt, die per
Stream eingehende Daten analysieren
kann. Auf dieser Basis entwickelten insge-
samt vier Projektteams mit je fünf Studie-
renden jeweils eigene Lösungen zur Ana-
lyse und Prognose. Die Ergebnisse wurden
außerdem mit geeigneten Tools visuali-
siert. Das Team sMehr setzte auf einen An-
satz mit linearer Regression wobei die Er-
gebnisse mit weiteren Daten aus dem On-
line Shop angereichert wurden. Die Ergeb-
nisse wurden in einem Dashboard auf Ba-
sis des Werkzeugs Kibana in einer Web-
plattform präsentiert.
Ausgangssituation
Das Unternehmen SAP vertreibt im eigenen SAP
Store Softwarelizenzen und Dienstleistungen. Die
Bedeutung des E-Commerce-Shops im B2B-Ge-
schäft nimmt stetig zu. Daraus ergibt sich die Heraus-
forderung, die Umsätze verlässlich zu prognostizie-
ren. Außerdem bietet es sich an, die tatsächliche
Customer Journey zu analysieren. Die Analyse führt
idealerweise zu den Schritten im Kaufprozess, die die
Kaufentscheidung beeinflussen, und die sich sodann
optimieren lassen. Ein Problem in der aktuellen Situ-
ation ist, dass es verschiedenste Datenquellen für
das E-Commerce-Geschäft gibt, die für die Analyse
zusammengeführt werden müssen.
Aufgabenstellung und Ziele
Ziel des Projekts war es, eine horizontal skalierbare
Big Data Analyseplattform zu entwickeln, um die
Rohdaten aus den unterschiedlichen Datenquellen
zu streamen und zu speichern. Die Rohdaten sollten
angemessen verarbeitet werden, um bessere Einbli-
cke zu den Umsätzen und zu weiteren Vertriebsdaten
zu erhalten. Des Weiteren sollten Zusammenhänge
in den Daten identifiziert und auf dieser Basis eine
Umsatzprognose (Forecast) erstellt werden. Die Er-
gebnisse sollten außerdem mit einem geeigneten
Werkzeug visualisiert werden.
Architektur und Plattform
Aufbauend auf Docker wurde eine skalierbare und
hochverfügbare Big-Data Infrastruktur geschaffen.
Diese Infrastruktur ist fähig, Streaming-Daten zu per-
sistieren, zu analysieren, anzureichern und innerhalb
eines Visualisierungstools darzustellen. Mittels
Apache Kafka können anfangs Streaming-Daten
über bestimmte Schnittstellen gespeichert werden.
Kafka ist ein temporärer Speicher in dem Daten nach
sieben Tagen gelöscht werden – aus diesem Grunde
findet eine Persistierung in einer Postgres-Daten-
bank statt. Als Big-Data Framework wird Apache
Flink genutzt. Apache Flink wird im Projekt zur Berei-
nigung, Verarbeitung und Anreicherung von
Streaming-Daten benutzt.
Ergebnisdaten werden über REST-Schnittstellen in
Elasticsearch gespeichert, die am Ende im Open-
Source Visualisierungstool Kibana dargestellt wer-
den. Kibana ermöglich es, bereinigte Daten aus ei-
nem Stream direkt visuell darzustellen. Durch die
vielfältigen Möglichkeiten der Filterung in Kibana,
können zudem Daten und Ergebnisse leicht herunter-
gebrochen werden.
Berechnungsverfahren
Basierend auf den historischen Daten der letzten fünf
Jahre wurde der Forecast mittels der linearen Re-
gression erstellt. Aus dem Ergebnis wurde ein zwei-
ter Forecast erstellt, der mit Livedaten angereichert
wurde, um so den Forecast aktualisieren zu können.
Daten, die hier eine Rolle spielen, waren zum Bei-
spiel getätigte Käufe, Seitenaufrufe, Sachen im Wa-
renkorb und vieles mehr. Diese Daten wurden aus
dem Online Shop der SAP gewonnen.
Ergebnisse
Durch die Analyse unterschiedlicher Datenquellen
und unter Berücksichtigung verschiedener Einfluss-
faktoren wurden Prognosen für Umsatz, Länder, Pro-
dukte und Produktkategorien berechnet. Es ist den
Studierenden gelungen, den SAP E-Commerce be-
rechenbarer zu machen und die resultierenden Er-
gebnisse visuell darzustellen. Anhand dieser Er-
kenntnisse kann der Kunde fundierte betriebswirt-
schaftliche Entscheidungen treffen. Neben der Soft-
ware wurden die Projektergebnisse innerhalb eines
System- und Benutzerhandbuches dokumentiert. Die
ausgelieferte Software und die Dokumentation bieten
Anregungen für eine eigene Lösung des Auftragge-
bers.
Fazit
In enger Zusammenarbeit von Kunden und Studie-
renden konnte in der Zeit von 12 Wochen ein echter
Mehrwert für alle Beteiligten geschaffen werden. Die
Studierenden haben eine intensive und realitätsnahe
Lernerfahrung gemacht und realistische Einblicke in
den Ablauf und die Herausforderungen von Kunden-
projekten erhalten. Zusätzlich haben sie moderne
Technologien im praktischen Einsatz kennengelernt.
Der Kunde hat einen Prototyp erhalten, der aufzeigt,
wie mit einer zeitgemäßen Infrastruktur eine skalier-
bare Plattform aufgebaut werden kann, in der Statis-
tiken, Analysen und Prognosen aus den E-Com-
merce Daten gewonnen werden können.
E-Commerce Insights Plattform für den SAP Store
Gröschel | Paulus, Stand: 10.10.2020
SAP SE
Benjamin Herrmann
Head of Digital Commerce
E-Mail: benjamin.herrmann@sap.com
Tel.: +49 151 62345562
Hochschule Mannheim
Prof. Dr. Michael Gröschel
Prof. Dr. Sachar Paulus
Fakultät für Informatik
Paul-Wittsack-Straße 10
D-68163 Mannheim
Tel.: +49 (0) 621 292 6764
E-Mail:
m.groeschel@hs-mannheim.de
s.paulus@hs-mannheim.de
www.informatik.hs-mannheim.de
Screenshot des Dashboards
Das Projekt wurde im Wintersemester 2019/20 von
den Studierenden Jonathan Arns, Konstantin Gas-
ser, Nico Jehle, Dana Mahialdin und Daniel Uhrich
bearbeitet.
Für https://www.sapstore.com/, den SAP
Online Shop, analysierten Studierende des
Studiengangs Unternehmens- und Wirt-
schaftsinformatik an der Hochschule Mann-
heim im Rahmen ihres Projektsemesters im
Wintersemester 2019/2020 zur Verfügung
gestellte Daten und entwickelten eine Platt-
form, um Umsätze im E-Commerce zu
prognostizieren. Zunächst wurde eine Big
Data Plattform mit Kafka entwickelt, die per
Stream eingehende Daten analysieren
kann. Auf dieser Basis entwickelten insge-
samt vier Projektteams mit je fünf Studie-
renden jeweils eigene Lösungen zur Ana-
lyse und Prognose. Die Ergebnisse wurden
außerdem mit geeigneten Tools visuali-
siert. Das Team Sourcecode setzte auf ei-
nen Ansatz mit Künstlicher Intelligenz. Ma-
chine-Learning-Modelle können dabei mit
minimalem Aufwand in einem skalierbaren,
verteilten Cluster verwendet werden. Die
Ergebnisse wurden in einem Dashboard
auf Basis von SAP Analytics Cloud interak-
tiv präsentiert.
Ausgangssituation
Das Unternehmen SAP vertreibt im eigenen SAP
Store Softwarelizenzen und Dienstleistungen. Die
Bedeutung des E-Commerce-Shops im B2B-Ge-
schäft nimmt stetig zu. Daraus ergibt sich die Heraus-
forderung, die Umsätze verlässlich zu prognostizie-
ren. Außerdem bietet es sich an, die tatsächliche
Customer Journey zu analysieren. Die Analyse führt
idealerweise zu den Schritten im Kaufprozess, die die
Kaufentscheidung beeinflussen, und die sich sodann
optimieren lassen. Ein Problem in der aktuellen Situ-
ation ist, dass es verschiedenste Datenquellen für
das E-Commerce-Geschäft gibt, die für die Analyse
zusammengeführt werden müssen.
Aufgabenstellung und Ziele
Ziel des Projekts war es, eine horizontal skalierbare
Big Data Analyseplattform zu entwickeln, um die
Rohdaten aus den unterschiedlichen Datenquellen
zu streamen und zu speichern. Die Rohdaten sollten
angemessen verarbeitet werden, um bessere Einbli-
cke zu den Umsätzen und zu weiteren Vertriebsdaten
zu erhalten. Des Weiteren sollten Zusammenhänge
in den Daten identifiziert werden, und auf dieser Ba-
sis eine Umsatzprognose (Forecast) erstellt werden.
Die Ergebnisse sollten außerdem mit einem geeigne-
ten Werkzeug visualisiert werden.
Big Data Plattform
Die Basisarchitektur, auf der alle Gruppen aufbauen,
besteht aus einem Messaging Service (Apache
Kafka), einer zentralen Datenbank (PostgreSQL) und
einem Big-Data Framework (Apache Flink). Alle Ser-
vices laufen auf Docker und sind damit als Container
sehr flexibel handhabbar.
Lösungsansatz
Die Basisplattform wird um Services erweitert, die
mittels eines Machine-Learning-Modells die Daten
auswerten und Vorhersagen treffen. Diese Machine-
Learning-Umgebung ermöglicht es, mit minimalem
Aufwand beliebige Modelle zu verwenden und außer-
dem eine hohe Skalierbarkeit zu bieten.
Zusätzlich wurden Tools für Monitoring und Data Ex-
ploration eingebaut, welche den Betrieb und die inter-
aktive Arbeit mit den Daten erleichtern.
Ergebnisse
Neben der Software wurde eine umfangreiche Doku-
mentation ausgeliefert, welche sowohl ein Benutzer-
handbuch als auch eine technische Dokumentation
aus Entwicklersicht umfasst. Zusätzlich wurde SAP
bereits während des Projekts in Bezug auf die Anfor-
derungen an Daten für Maschinelles Lernen beraten.
Des Weiteren wurden die Ergebnisse und die zur
Verfügung gestellten Daten mittels der Software SAP
Analytics Cloud visualisiert. Das Ergebnis ermöglicht
SAP durch die Einbindung verschiedener Wrapper-
Klassen, dass einzelne Teile problemlos in die unter-
nehmensspezifische Infrastruktur eingebunden wer-
den können.
Vorgehensweise
Mithilfe der agilen Vorgehensweise im Projektma-
nagement sind die Studierenden an die Realisierung
des Projekts herangegangen. Durch ein kontinuier-
lich gepflegtes Taskboard, tägliche Meetings, Retro-
spektiven, Ausliefern von Produktinkrementen und
durchgehende Synchronisation haben die Studieren-
den ihre Effektivität durchgehend verbessern kön-
nen. Kundenwünsche wurden fortlaufend in das Pro-
dukt eingepflegt und ergebnisorientiert verarbeitet. In
regelmäßigen Abständen wurden mit dem Kunden
Reviews durchgeführt, um das Produkt mit den Kun-
denwünschen abzustimmen.
Fazit
In enger Zusammenarbeit von Kunden und Studie-
renden konnte in der Zeit von 12 Wochen ein echter
Mehrwert für alle Beteiligten geschaffen werden. Die
Studierenden haben eine intensive und realitätsnahe
Lernerfahrung gemacht und realistische Einblicke in
den Ablauf und die Herausforderungen von Kunden-
projekten erhalten. Zusätzlich haben sie moderne
Technologien im praktischen Einsatz kennengelernt.
Der Kunde hat einen Prototyp erhalten, der aufzeigt,
wie mit einer zeitgemäßen Infrastruktur eine skalier-
bare Plattform aufgebaut werden kann, in der Statis-
tiken, Analysen und Prognosen aus den E-Com-
merce Daten gewonnen werden können.

Weitere ähnliche Inhalte

Ähnlich wie Projektbeschreibung "E-Commerce Insights Plattform für den SAP Store" 2020

Drupal und Drupalgardens: Einsatz und Vergleich
Drupal und Drupalgardens: Einsatz und VergleichDrupal und Drupalgardens: Einsatz und Vergleich
Drupal und Drupalgardens: Einsatz und VergleichMichael Groeschel
 
SAP Cloud for Analytics Überblick
SAP Cloud for Analytics ÜberblickSAP Cloud for Analytics Überblick
SAP Cloud for Analytics ÜberblickMohamed Abdel Hadi
 
AGILITA TechTrends 2023
AGILITA TechTrends 2023AGILITA TechTrends 2023
AGILITA TechTrends 2023Thomas Neuhaus
 
SAP Trends 2014 - die Entscheider kennen sollten
SAP Trends 2014 - die Entscheider kennen solltenSAP Trends 2014 - die Entscheider kennen sollten
SAP Trends 2014 - die Entscheider kennen solltenIT-Onlinemagazin
 
Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Natasha Senn
 
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor Integration
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor IntegrationWebcast: SAP on Azure für den Mittelstand - Erfolgsfaktor Integration
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor IntegrationQUIBIQ Hamburg
 
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019Michael Groeschel
 
Business Intelligence – business case by bsa Marketing
Business Intelligence – business case by bsa MarketingBusiness Intelligence – business case by bsa Marketing
Business Intelligence – business case by bsa Marketingbsa Marketing
 
Digital führen bei der SAP - LEARNTEC 2016
Digital führen bei der SAP - LEARNTEC 2016Digital führen bei der SAP - LEARNTEC 2016
Digital führen bei der SAP - LEARNTEC 2016Thomas Jenewein
 
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePoint
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePointADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePoint
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePointbhoeck
 
Web Analytics Leitfaden Bitkom
Web Analytics Leitfaden BitkomWeb Analytics Leitfaden Bitkom
Web Analytics Leitfaden BitkomRalf Haberich
 
SAP EAM Kongress 2022
SAP EAM Kongress 2022SAP EAM Kongress 2022
SAP EAM Kongress 2022argvis GmbH
 
2016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver052016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver05Ulrich Schmidt
 
Newsletter Nr. 10_April 2015
Newsletter Nr. 10_April 2015Newsletter Nr. 10_April 2015
Newsletter Nr. 10_April 2015socialmediapp
 
DXC Technology - THRIVE Blog: Das nächste BI-Level
DXC Technology - THRIVE Blog: Das nächste BI-LevelDXC Technology - THRIVE Blog: Das nächste BI-Level
DXC Technology - THRIVE Blog: Das nächste BI-LevelDaniel Eiduzzis
 
SAP EAM Kongress 2019
SAP EAM Kongress 2019SAP EAM Kongress 2019
SAP EAM Kongress 2019RODIAS GmbH
 
2016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver042016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver04Ulrich Schmidt
 
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas Berth
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas BerthWerbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas Berth
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas BerthWerbeplanung.at Summit
 

Ähnlich wie Projektbeschreibung "E-Commerce Insights Plattform für den SAP Store" 2020 (20)

Drupal und Drupalgardens: Einsatz und Vergleich
Drupal und Drupalgardens: Einsatz und VergleichDrupal und Drupalgardens: Einsatz und Vergleich
Drupal und Drupalgardens: Einsatz und Vergleich
 
SAP Cloud for Analytics Überblick
SAP Cloud for Analytics ÜberblickSAP Cloud for Analytics Überblick
SAP Cloud for Analytics Überblick
 
AGILITA TechTrends 2023
AGILITA TechTrends 2023AGILITA TechTrends 2023
AGILITA TechTrends 2023
 
SAP Trends 2014 - die Entscheider kennen sollten
SAP Trends 2014 - die Entscheider kennen solltenSAP Trends 2014 - die Entscheider kennen sollten
SAP Trends 2014 - die Entscheider kennen sollten
 
Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016Provadis Nr. 12 Oktober 2016
Provadis Nr. 12 Oktober 2016
 
SAP PPM - Projektportfolio im Blick
SAP PPM - Projektportfolio im BlickSAP PPM - Projektportfolio im Blick
SAP PPM - Projektportfolio im Blick
 
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor Integration
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor IntegrationWebcast: SAP on Azure für den Mittelstand - Erfolgsfaktor Integration
Webcast: SAP on Azure für den Mittelstand - Erfolgsfaktor Integration
 
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019
Machbarkeitsstudie: Innovation Management Tool (BASF, Hochschule Mannheim), 2019
 
Business Intelligence – business case by bsa Marketing
Business Intelligence – business case by bsa MarketingBusiness Intelligence – business case by bsa Marketing
Business Intelligence – business case by bsa Marketing
 
Digital führen bei der SAP - LEARNTEC 2016
Digital führen bei der SAP - LEARNTEC 2016Digital führen bei der SAP - LEARNTEC 2016
Digital führen bei der SAP - LEARNTEC 2016
 
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePoint
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePointADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePoint
ADAMA optimiert mit WEBCON BPS und Net at Work HR-Prozesse im SharePoint
 
Web Analytics Leitfaden Bitkom
Web Analytics Leitfaden BitkomWeb Analytics Leitfaden Bitkom
Web Analytics Leitfaden Bitkom
 
SAP EAM Kongress 2022
SAP EAM Kongress 2022SAP EAM Kongress 2022
SAP EAM Kongress 2022
 
2016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver052016 pcc presse_03_dcc_ontras_dcc_ver05
2016 pcc presse_03_dcc_ontras_dcc_ver05
 
Newsletter Nr. 10_April 2015
Newsletter Nr. 10_April 2015Newsletter Nr. 10_April 2015
Newsletter Nr. 10_April 2015
 
DXC Technology - THRIVE Blog: Das nächste BI-Level
DXC Technology - THRIVE Blog: Das nächste BI-LevelDXC Technology - THRIVE Blog: Das nächste BI-Level
DXC Technology - THRIVE Blog: Das nächste BI-Level
 
SAP EAM Kongress 2019
SAP EAM Kongress 2019SAP EAM Kongress 2019
SAP EAM Kongress 2019
 
2016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver042016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver04
 
Mit Vertriebslösungen aus der Cloud in den Driver Seat
Mit Vertriebslösungen aus der Cloud in den Driver SeatMit Vertriebslösungen aus der Cloud in den Driver Seat
Mit Vertriebslösungen aus der Cloud in den Driver Seat
 
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas Berth
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas BerthWerbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas Berth
Werbeplanung.at SUMMIT 15 - Conversion Optimierung in Echtzeit - Andreas Berth
 

Mehr von Michael Groeschel

Projektbeschreibung "Data Issue Management im Master Data Management" 2022
Projektbeschreibung "Data Issue Management im Master Data Management" 2022Projektbeschreibung "Data Issue Management im Master Data Management" 2022
Projektbeschreibung "Data Issue Management im Master Data Management" 2022Michael Groeschel
 
Das Geschäftsmodell von Twilio
Das Geschäftsmodell von TwilioDas Geschäftsmodell von Twilio
Das Geschäftsmodell von TwilioMichael Groeschel
 
Das Geschäftsmodell von JetBrains
Das Geschäftsmodell von JetBrainsDas Geschäftsmodell von JetBrains
Das Geschäftsmodell von JetBrainsMichael Groeschel
 
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...Michael Groeschel
 
Das Geschäftsmodell von Shopify
Das Geschäftsmodell von ShopifyDas Geschäftsmodell von Shopify
Das Geschäftsmodell von ShopifyMichael Groeschel
 
Das Geschäftsmodell von Check24
Das Geschäftsmodell von Check24Das Geschäftsmodell von Check24
Das Geschäftsmodell von Check24Michael Groeschel
 
Das Geschäftsmodell von Pornhub
Das Geschäftsmodell von PornhubDas Geschäftsmodell von Pornhub
Das Geschäftsmodell von PornhubMichael Groeschel
 
Das Geschäftsmodell von Doozer
Das Geschäftsmodell von DoozerDas Geschäftsmodell von Doozer
Das Geschäftsmodell von DoozerMichael Groeschel
 
Das Geschäftsmodell von Klarna
Das Geschäftsmodell von KlarnaDas Geschäftsmodell von Klarna
Das Geschäftsmodell von KlarnaMichael Groeschel
 
Das Geschäftsmodell von Immocation
Das Geschäftsmodell von ImmocationDas Geschäftsmodell von Immocation
Das Geschäftsmodell von ImmocationMichael Groeschel
 
Das Geschäftsmodell von N26
Das Geschäftsmodell von N26Das Geschäftsmodell von N26
Das Geschäftsmodell von N26Michael Groeschel
 
Das Geschäftsmodell von Spendit
Das Geschäftsmodell von SpenditDas Geschäftsmodell von Spendit
Das Geschäftsmodell von SpenditMichael Groeschel
 
Das Geschäftsmodell von Wikifolio
Das Geschäftsmodell von WikifolioDas Geschäftsmodell von Wikifolio
Das Geschäftsmodell von WikifolioMichael Groeschel
 
Das Geschäftsmodell von Chefkoch
Das Geschäftsmodell von ChefkochDas Geschäftsmodell von Chefkoch
Das Geschäftsmodell von ChefkochMichael Groeschel
 
Evaluierung von NoSQL-Datenbanksystemen
Evaluierung von NoSQL-DatenbanksystemenEvaluierung von NoSQL-Datenbanksystemen
Evaluierung von NoSQL-DatenbanksystemenMichael Groeschel
 
Das Geschäftsmodell von Teekampagne
Das Geschäftsmodell von TeekampagneDas Geschäftsmodell von Teekampagne
Das Geschäftsmodell von TeekampagneMichael Groeschel
 
Das Geschäftsmodell von Plotagon
Das Geschäftsmodell von PlotagonDas Geschäftsmodell von Plotagon
Das Geschäftsmodell von PlotagonMichael Groeschel
 
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)Michael Groeschel
 
Process Analysis with Process Mining
Process Analysis with Process MiningProcess Analysis with Process Mining
Process Analysis with Process MiningMichael Groeschel
 
Modeling the Business Model and Business Strategy – Conception and Implementa...
Modeling the Business Model and Business Strategy – Conception and Implementa...Modeling the Business Model and Business Strategy – Conception and Implementa...
Modeling the Business Model and Business Strategy – Conception and Implementa...Michael Groeschel
 

Mehr von Michael Groeschel (20)

Projektbeschreibung "Data Issue Management im Master Data Management" 2022
Projektbeschreibung "Data Issue Management im Master Data Management" 2022Projektbeschreibung "Data Issue Management im Master Data Management" 2022
Projektbeschreibung "Data Issue Management im Master Data Management" 2022
 
Das Geschäftsmodell von Twilio
Das Geschäftsmodell von TwilioDas Geschäftsmodell von Twilio
Das Geschäftsmodell von Twilio
 
Das Geschäftsmodell von JetBrains
Das Geschäftsmodell von JetBrainsDas Geschäftsmodell von JetBrains
Das Geschäftsmodell von JetBrains
 
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...
Smart Cities - Welche Herausforderungen verbergen sich wirklich hinter diesem...
 
Das Geschäftsmodell von Shopify
Das Geschäftsmodell von ShopifyDas Geschäftsmodell von Shopify
Das Geschäftsmodell von Shopify
 
Das Geschäftsmodell von Check24
Das Geschäftsmodell von Check24Das Geschäftsmodell von Check24
Das Geschäftsmodell von Check24
 
Das Geschäftsmodell von Pornhub
Das Geschäftsmodell von PornhubDas Geschäftsmodell von Pornhub
Das Geschäftsmodell von Pornhub
 
Das Geschäftsmodell von Doozer
Das Geschäftsmodell von DoozerDas Geschäftsmodell von Doozer
Das Geschäftsmodell von Doozer
 
Das Geschäftsmodell von Klarna
Das Geschäftsmodell von KlarnaDas Geschäftsmodell von Klarna
Das Geschäftsmodell von Klarna
 
Das Geschäftsmodell von Immocation
Das Geschäftsmodell von ImmocationDas Geschäftsmodell von Immocation
Das Geschäftsmodell von Immocation
 
Das Geschäftsmodell von N26
Das Geschäftsmodell von N26Das Geschäftsmodell von N26
Das Geschäftsmodell von N26
 
Das Geschäftsmodell von Spendit
Das Geschäftsmodell von SpenditDas Geschäftsmodell von Spendit
Das Geschäftsmodell von Spendit
 
Das Geschäftsmodell von Wikifolio
Das Geschäftsmodell von WikifolioDas Geschäftsmodell von Wikifolio
Das Geschäftsmodell von Wikifolio
 
Das Geschäftsmodell von Chefkoch
Das Geschäftsmodell von ChefkochDas Geschäftsmodell von Chefkoch
Das Geschäftsmodell von Chefkoch
 
Evaluierung von NoSQL-Datenbanksystemen
Evaluierung von NoSQL-DatenbanksystemenEvaluierung von NoSQL-Datenbanksystemen
Evaluierung von NoSQL-Datenbanksystemen
 
Das Geschäftsmodell von Teekampagne
Das Geschäftsmodell von TeekampagneDas Geschäftsmodell von Teekampagne
Das Geschäftsmodell von Teekampagne
 
Das Geschäftsmodell von Plotagon
Das Geschäftsmodell von PlotagonDas Geschäftsmodell von Plotagon
Das Geschäftsmodell von Plotagon
 
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)
Entscheidungsmanagement: Übungsaufgabe zur Decision Model and Notation (DMN)
 
Process Analysis with Process Mining
Process Analysis with Process MiningProcess Analysis with Process Mining
Process Analysis with Process Mining
 
Modeling the Business Model and Business Strategy – Conception and Implementa...
Modeling the Business Model and Business Strategy – Conception and Implementa...Modeling the Business Model and Business Strategy – Conception and Implementa...
Modeling the Business Model and Business Strategy – Conception and Implementa...
 

Projektbeschreibung "E-Commerce Insights Plattform für den SAP Store" 2020

  • 1. E-Commerce Insights Plattform für den SAP Store Gröschel | Paulus, Stand: 10.10.2020 SAP SE Benjamin Herrmann Head of Digital Commerce E-Mail: benjamin.herrmann@sap.com Tel.: +49 151 62345562 Hochschule Mannheim Prof. Dr. Michael Gröschel Prof. Dr. Sachar Paulus Fakultät für Informatik Paul-Wittsack-Straße 10 D-68163 Mannheim Tel.: +49 (0) 621 292 6764 E-Mail: m.groeschel@hs-mannheim.de s.paulus@hs-mannheim.de www.informatik.hs-mannheim.de Analyse-Dashboards (SAP Analytics Cloud) Das Projekt wurde von den Studierenden Minh Quan Dong, Mehmet Cicek, Fadi Kasabji, Sebastian Schä- fer und Christian Knorr (im Bild von links nach rechts) bearbeitet. Für https://www.sapstore.com/, den SAP Online Shop, analysierten Studierende des Studiengangs Unternehmens- und Wirt- schaftsinformatik an der Hochschule Mann- heim im Rahmen ihres Projektsemesters im Wintersemester 2019/2020 zur Verfügung gestellte Daten und entwickelten eine Platt- form, um Umsätze im E-Commerce zu prognostizieren. Zunächst wurde eine Big Data Plattform mit Kafka entwickelt, die per Stream eingehende Daten analysieren kann. Auf dieser Basis entwickelten insge- samt vier Projektteams mit je fünf Studie- renden jeweils eigene Lösungen zur Ana- lyse und Prognose. Die Ergebnisse wurden außerdem mit geeigneten Tools visuali- siert. Das Team 5for2 entwickelte ein auf SAP Analytics Cloud basierendes Analyse- und Forecast-Tool mit dem Fokus Kunden- segmentierung. Ausgangssituation Das Unternehmen SAP vertreibt im eigenen SAP Store Softwarelizenzen und Dienstleistungen. Die Bedeutung des E-Commerce-Shops im B2B-Ge- schäft nimmt stetig zu. Daraus ergibt sich die Heraus- forderung, die Umsätze verlässlich zu prognostizie- ren. Außerdem bietet es sich an, die tatsächliche Customer Journey zu analysieren. Die Analyse führt idealerweise zu den Schritten im Kaufprozess, die die Kaufentscheidung beeinflussen, und die sich sodann optimieren lassen. Ein Problem in der aktuellen Situ- ation ist, dass es verschiedenste Datenquellen für das E-Commerce-Geschäft gibt, die für die Analyse zusammengeführt werden müssen. Aufgabenstellung und Ziele Ziel des Projekts war es, eine horizontal skalierbare Big Data Analyseplattform zu entwickeln, um die Rohdaten aus den unterschiedlichen Datenquellen zu streamen und zu speichern. Die Rohdaten sollten angemessen verarbeitet werden, um bessere Einbli- cke zu den Umsätzen und zu weiteren Vertriebsdaten zu erhalten. Des Weiteren sollten Zusammenhänge in den Daten identifiziert, und auf dieser Basis eine Umsatzprognose (Forecast) erstellt werden. Die Er- gebnisse sollten außerdem mit einem geeigneten Werkzeug visualisiert werden. Projektmanagement Ein wesentlicher Aspekt war es, gelernte Projektma- nagement- und Software Engineering Methoden an- zuwenden. Mit deren Hilfe kann ein erfolgreicher Ab- schluss des Projekts sichergestellt werden. Auch re- gelmäßige Treffen mit den Stakeholdern dienten die- sem Zweck. Die agile Projektmanagement-Methode Kanban ermöglichte es, neben der kontinuierlichen Planung zum Projektfortschritt, Änderungswünsche der Kundenanforderungen kurzfristig mit einzupla- nen. Eines der ersten Arbeitspakete war eine Itera- tion des Design-Thinking-Prozesses durchzuführen, um die wesentlichen Ziele des Projektes näher zu be- leuchten. Entsprechende Methoden wurden im Rah- men eines Design-Thinking-Workshops bei SAP ver- mittelt. Persona als Zwischenergebnis des Design Thinking Prozesses Softwarearchitektur und Technologien Die Architektur der Infrastruktur basiert auf einem gängigen mehrschichtigen Aufbau der einzelnen Komponenten, der hier skizziert ist: Um den Kundenanforderungen gerecht zu werden, wurde das Framework Apache Kafka für das Strea- ming der Daten verwendet. Die Rohdaten, die über Apache Kafka geschickt wurden, wurden in der Datenbank PostgreSQL persistiert und mit dem Big- Data-Framework Apache Flink verarbeitet. Für die Verarbeitung waren auf Java basierende Flink-Jobs erforderlich, mit denen unter anderem Forecast- Algorithmen umgesetzt wurden. Die analysierten Daten wurden wiederum in PostgreSQL gespeichert. Die visuelle Darstellung sowie weitere Analysen erfolgten auf Kundenwunsch mit der SAP eigenen Softwarelösung SAP Analytics Cloud. Um eine verti- kale Skalierbarkeit zu gewährleisten erfolgte die Im- plementierung der Frameworks in der Container- software Docker. Ergebnisse Neben der Lösung, welche dem Kunden detaillierte Einblicke in Transaktionsdaten, Vorhersagen und Kundensegmentierung lieferte, wurden sämtliche Projektergebnisse in einer ausführlichen Dokumenta- tion vermerkt. Weiterhin wurde ein Benutzerhand- buch erstellt. Beschreibungen der Softwarearchitek- tur und der Nutzung der oben genannten Frame- works waren Teil einer separat erstellten Dokumen- tation zur Infrastruktur. Ein Vergleich der genutzten Visualisierungstechnologien, sowie das Verknüpfen der Ergebnisse der einzelnen Teams zu einem „Big Picture“ rundeten das Ergebnis ab. Fazit In enger Zusammenarbeit von Kunden und Studie- renden konnte in der Zeit von 12 Wochen ein echter Mehrwert für alle Beteiligten geschaffen werden. Die Studierenden haben eine intensive und realitätsnahe Lernerfahrung gemacht und realistische Einblicke in den Ablauf und die Herausforderungen von Kunden- projekten erhalten. Zusätzlich haben sie moderne Technologien im praktischen Einsatz kennengelernt. Der Kunde hat einen Prototyp erhalten, der aufzeigt, wie mit einer zeitgemäßen Infrastruktur eine skalier- bare Plattform aufgebaut werden kann, in der Statis- tiken, Analysen und Prognosen aus den E-Com- merce Daten gewonnen werden können.
  • 2. E-Commerce Insights Plattform für den SAP Store Gröschel | Paulus, Stand: 10.10.2020 SAP SE Benjamin Herrmann Head of Digital Commerce E-Mail: benjamin.herrmann@sap.com Tel.: +49 151 62345562 Hochschule Mannheim Prof. Dr. Michael Gröschel Prof. Dr. Sachar Paulus Fakultät für Informatik Paul-Wittsack-Straße 10 D-68163 Mannheim Tel.: +49 (0) 621 292 6764 E-Mail: m.groeschel@hs-mannheim.de s.paulus@hs-mannheim.de www.informatik.hs-mannheim.de Customer-Journey Visualisierung als Flowchart Das Projekt wurde von den Studierenden Berkan Ahad, Daniel Mücke, Eyüp Ünlü, Niklas Lahann und Luis Alves de Souza (im Bild von links nach rechts) bearbeitet. Für https://www.sapstore.com/, den SAP Online Shop, analysierten Studierende des Studiengangs Unternehmens- und Wirt- schaftsinformatik an der Hochschule Mann- heim im Rahmen ihres Projektsemesters im Wintersemester 2019/2020 zur Verfügung gestellte Daten und entwickelten eine Platt- form, um Umsätze im E-Commerce zu prognostizieren. Zunächst wurde eine Big Data Plattform mit Kafka entwickelt, die per Stream eingehende Daten analysieren kann. Auf dieser Basis entwickelten insge- samt vier Projektteams mit je fünf Studie- renden jeweils eigene Lösungen zur Ana- lyse und Prognose. Die Ergebnisse wurden außerdem mit geeigneten Tools visuali- siert. Das Team Pentablend kümmerte sich speziell um die Entwicklung eines neuen Konzepts zur Datenerfassung der Aktivitä- ten im Webshop und die Verarbeitung und Nutzung der erfassten Daten. So sollte die Möglichkeit bestehen, auf bestimmte Nut- zeraktionen automatisiert zu reagieren. Die Visualisierung der Customer Journey durch Flowcharts ermöglicht das Nachvollziehen, wie sich Kunden virtuell durch den Shop be- wegen. Ausgangssituation Das Unternehmen SAP vertreibt im eigenen SAP Store Softwarelizenzen und Dienstleistungen. Die Bedeutung des E-Commerce-Shops im B2B-Ge- schäft nimmt stetig zu. Daraus ergibt sich die Heraus- forderung, die Umsätze verlässlich zu prognostizie- ren. Außerdem bietet es sich an, die tatsächliche Customer Journey zu analysieren. Die Analyse führt idealerweise zu den Schritten im Kaufprozess, die die Kaufentscheidung beeinflussen, und die sich sodann optimieren lassen. Ein Problem in der aktuellen Situ- ation ist, dass es verschiedenste Datenquellen für das E-Commerce-Geschäft gibt, die für die Analyse zusammengeführt werden müssen. Aufgabenstellung und Ziele Ziel des Projekts war es, eine horizontal skalierbare Big Data Analyseplattform zu entwickeln, um die Rohdaten aus den unterschiedlichen Datenquellen zu streamen und zu speichern. Die Rohdaten sollten angemessen verarbeitet werden, um bessere Einbli- cke zu den Umsätzen und zu weiteren Vertriebsdaten zu erhalten. Des Weiteren sollten Zusammenhänge in den Daten identifiziert werden, und auf dieser Ba- sis eine Umsatzprognose (Forecast) erstellt werden. Die Ergebnisse sollten außerdem mit einem geeigne- ten Werkzeug visualisiert werden. Big Data Plattform Die Basisarchitektur, auf der alle Gruppen aufbauen, besteht aus einem Messaging Service (Apache Kafka), einer zentralen Datenbank (PostgreSQL) und einem Big-Data Framework (Apache Flink). Alle Ser- vices laufen auf Docker und sind damit als Container sehr flexibel handhabbar. Lösungsansatz Für die Lösung wurde das Framework Unomi aus der Apache-Familie genutzt Unomi erlaubt das Sammeln, Kategorisieren und Speichern von Ereignisdaten von Webseiten. Das Framework wurde in eine Testwebsite, die dem SAP Online Shop mit Produktseiten und Formularen nach- empfunden war, integriert und angepasst. Die Ereig- nisdaten werden bei der Nutzung des Frameworks persistiert und in sogenannten Profilen gespeichert. Diese Profile wurden durch Benutzereingaben, bei- spielsweise auf Checkout-Seiten vervollständigt. Dadurch war es möglich, den zunächst anonymen Profilen einen Charakter zu geben. Weiterhin wurde ein Modell entworfen, um den einzelnen Produkten bestimmte Scores zuzuordnen, mit denen später die Produktinteressen differenziert werden können. Wichtig war dabei, dass alle Produktinteressen direkt den Profilen zugeordnet und auch laufend aktualisiert wurden. Auf dieser Basis konnten wichtige Regeln implementiert werden, die es ermöglichten, auf die Aktionen der Nutzer zu reagieren und damit die (po- tentiellen) Kunden gezielt zu einem Abschluss zu len- ken. Dazu wurde ein Maßnahmenpool definiert, mit dem direkt und angemessen auf die entsprechende Kundengruppe reagiert werden kann. Übergeordne- tes Ziel war es, Kunden zu binden und die Conversi- onrate für jedes Segment zu erhöhen. Die Visualisie- rung der Customer Journey Maps wurde mit dem Ja- vascript-basierten Framework D3 realisiert. Die Da- tenquelle für die Visualisierung waren die vorher ge- sammelten Besucher- und Nutzungsprofile. Ein wei- terer wichtiger Schritt war die Einführung einer Seg- mentierung, die es ermöglichte, mit den Ereignissen und den Profilen in einer 3-Schicht-Architektur zu- sammenzuarbeiten. Ergebnisse Es wurde ein Werkzeug als Proof-of-Concept zur Verfügung gestellt, mit dem alle Aktionen auf der Website und die Daten der Benutzer genau verfolgt werden können. Die Daten werden gesammelt und kategorisiert. So können völlig neue Informationen über die Interessen an Produkten gewonnen und ein- zelne Nutzer gezielt kategorisiert werden. Durch die implementierte Recommendation-Engine ist es mög- lich, personalisiert und automatisiert auf einzelne Nutzer sowie auf ganze Gruppen zu reagieren. Dar- über hinaus werden die protokollierten Ereignisse vi- sualisiert, um die Punkte zu finden, an denen viele potentielle Kunden den Prozess verlassen. Fazit In enger Zusammenarbeit von Kunden und Studie- renden konnte in der Zeit von 12 Wochen ein echter Mehrwert für alle Beteiligten geschaffen werden. Die Studierenden haben eine intensive und realitätsnahe Lernerfahrung gemacht und realistische Einblicke in den Ablauf und die Herausforderungen von Kunden- projekten erhalten. Zusätzlich haben sie moderne Technologien im praktischen Einsatz kennengelernt. Der Kunde hat einen Prototyp erhalten, der aufzeigt, wie mit einer zeitgemäßen Infrastruktur eine skalier- bare Plattform aufgebaut werden kann, in der Statis- tiken, Analysen und Prognosen aus den E-Com- merce Daten gewonnen werden können.
  • 3. E-Commerce Insights Plattform für den SAP Store Gröschel | Paulus, Stand: 10.10.2020 SAP SE Benjamin Herrmann Head of Digital Commerce E-Mail: benjamin.herrmann@sap.com Tel.: +49 151 62345562 Hochschule Mannheim Prof. Dr. Michael Gröschel Prof. Dr. Sachar Paulus Fakultät für Informatik Paul-Wittsack-Straße 10 D-68163 Mannheim Tel.: +49 (0) 621 292 6764 E-Mail: m.groeschel@hs-mannheim.de s.paulus@hs-mannheim.de www.informatik.hs-mannheim.de Screenshot des Dashboards Das Projekt wurde im Wintersemester 2019/20 von den Studierenden Enes Ördek, Hendrik Mehlich, Mike Möck, Safak Kurt und Razau Kheder bearbeitet. Für https://www.sapstore.com/, den SAP Online Shop, analysierten Studierende des Studiengangs Unternehmens- und Wirt- schaftsinformatik an der Hochschule Mann- heim im Rahmen ihres Projektsemesters im Wintersemester 2019/2020 zur Verfügung gestellte Daten und entwickelten eine Platt- form, um Umsätze im E-Commerce zu prognostizieren. Zunächst wurde eine Big Data Plattform mit Kafka entwickelt, die per Stream eingehende Daten analysieren kann. Auf dieser Basis entwickelten insge- samt vier Projektteams mit je fünf Studie- renden jeweils eigene Lösungen zur Ana- lyse und Prognose. Die Ergebnisse wurden außerdem mit geeigneten Tools visuali- siert. Das Team sMehr setzte auf einen An- satz mit linearer Regression wobei die Er- gebnisse mit weiteren Daten aus dem On- line Shop angereichert wurden. Die Ergeb- nisse wurden in einem Dashboard auf Ba- sis des Werkzeugs Kibana in einer Web- plattform präsentiert. Ausgangssituation Das Unternehmen SAP vertreibt im eigenen SAP Store Softwarelizenzen und Dienstleistungen. Die Bedeutung des E-Commerce-Shops im B2B-Ge- schäft nimmt stetig zu. Daraus ergibt sich die Heraus- forderung, die Umsätze verlässlich zu prognostizie- ren. Außerdem bietet es sich an, die tatsächliche Customer Journey zu analysieren. Die Analyse führt idealerweise zu den Schritten im Kaufprozess, die die Kaufentscheidung beeinflussen, und die sich sodann optimieren lassen. Ein Problem in der aktuellen Situ- ation ist, dass es verschiedenste Datenquellen für das E-Commerce-Geschäft gibt, die für die Analyse zusammengeführt werden müssen. Aufgabenstellung und Ziele Ziel des Projekts war es, eine horizontal skalierbare Big Data Analyseplattform zu entwickeln, um die Rohdaten aus den unterschiedlichen Datenquellen zu streamen und zu speichern. Die Rohdaten sollten angemessen verarbeitet werden, um bessere Einbli- cke zu den Umsätzen und zu weiteren Vertriebsdaten zu erhalten. Des Weiteren sollten Zusammenhänge in den Daten identifiziert und auf dieser Basis eine Umsatzprognose (Forecast) erstellt werden. Die Er- gebnisse sollten außerdem mit einem geeigneten Werkzeug visualisiert werden. Architektur und Plattform Aufbauend auf Docker wurde eine skalierbare und hochverfügbare Big-Data Infrastruktur geschaffen. Diese Infrastruktur ist fähig, Streaming-Daten zu per- sistieren, zu analysieren, anzureichern und innerhalb eines Visualisierungstools darzustellen. Mittels Apache Kafka können anfangs Streaming-Daten über bestimmte Schnittstellen gespeichert werden. Kafka ist ein temporärer Speicher in dem Daten nach sieben Tagen gelöscht werden – aus diesem Grunde findet eine Persistierung in einer Postgres-Daten- bank statt. Als Big-Data Framework wird Apache Flink genutzt. Apache Flink wird im Projekt zur Berei- nigung, Verarbeitung und Anreicherung von Streaming-Daten benutzt. Ergebnisdaten werden über REST-Schnittstellen in Elasticsearch gespeichert, die am Ende im Open- Source Visualisierungstool Kibana dargestellt wer- den. Kibana ermöglich es, bereinigte Daten aus ei- nem Stream direkt visuell darzustellen. Durch die vielfältigen Möglichkeiten der Filterung in Kibana, können zudem Daten und Ergebnisse leicht herunter- gebrochen werden. Berechnungsverfahren Basierend auf den historischen Daten der letzten fünf Jahre wurde der Forecast mittels der linearen Re- gression erstellt. Aus dem Ergebnis wurde ein zwei- ter Forecast erstellt, der mit Livedaten angereichert wurde, um so den Forecast aktualisieren zu können. Daten, die hier eine Rolle spielen, waren zum Bei- spiel getätigte Käufe, Seitenaufrufe, Sachen im Wa- renkorb und vieles mehr. Diese Daten wurden aus dem Online Shop der SAP gewonnen. Ergebnisse Durch die Analyse unterschiedlicher Datenquellen und unter Berücksichtigung verschiedener Einfluss- faktoren wurden Prognosen für Umsatz, Länder, Pro- dukte und Produktkategorien berechnet. Es ist den Studierenden gelungen, den SAP E-Commerce be- rechenbarer zu machen und die resultierenden Er- gebnisse visuell darzustellen. Anhand dieser Er- kenntnisse kann der Kunde fundierte betriebswirt- schaftliche Entscheidungen treffen. Neben der Soft- ware wurden die Projektergebnisse innerhalb eines System- und Benutzerhandbuches dokumentiert. Die ausgelieferte Software und die Dokumentation bieten Anregungen für eine eigene Lösung des Auftragge- bers. Fazit In enger Zusammenarbeit von Kunden und Studie- renden konnte in der Zeit von 12 Wochen ein echter Mehrwert für alle Beteiligten geschaffen werden. Die Studierenden haben eine intensive und realitätsnahe Lernerfahrung gemacht und realistische Einblicke in den Ablauf und die Herausforderungen von Kunden- projekten erhalten. Zusätzlich haben sie moderne Technologien im praktischen Einsatz kennengelernt. Der Kunde hat einen Prototyp erhalten, der aufzeigt, wie mit einer zeitgemäßen Infrastruktur eine skalier- bare Plattform aufgebaut werden kann, in der Statis- tiken, Analysen und Prognosen aus den E-Com- merce Daten gewonnen werden können.
  • 4. E-Commerce Insights Plattform für den SAP Store Gröschel | Paulus, Stand: 10.10.2020 SAP SE Benjamin Herrmann Head of Digital Commerce E-Mail: benjamin.herrmann@sap.com Tel.: +49 151 62345562 Hochschule Mannheim Prof. Dr. Michael Gröschel Prof. Dr. Sachar Paulus Fakultät für Informatik Paul-Wittsack-Straße 10 D-68163 Mannheim Tel.: +49 (0) 621 292 6764 E-Mail: m.groeschel@hs-mannheim.de s.paulus@hs-mannheim.de www.informatik.hs-mannheim.de Screenshot des Dashboards Das Projekt wurde im Wintersemester 2019/20 von den Studierenden Jonathan Arns, Konstantin Gas- ser, Nico Jehle, Dana Mahialdin und Daniel Uhrich bearbeitet. Für https://www.sapstore.com/, den SAP Online Shop, analysierten Studierende des Studiengangs Unternehmens- und Wirt- schaftsinformatik an der Hochschule Mann- heim im Rahmen ihres Projektsemesters im Wintersemester 2019/2020 zur Verfügung gestellte Daten und entwickelten eine Platt- form, um Umsätze im E-Commerce zu prognostizieren. Zunächst wurde eine Big Data Plattform mit Kafka entwickelt, die per Stream eingehende Daten analysieren kann. Auf dieser Basis entwickelten insge- samt vier Projektteams mit je fünf Studie- renden jeweils eigene Lösungen zur Ana- lyse und Prognose. Die Ergebnisse wurden außerdem mit geeigneten Tools visuali- siert. Das Team Sourcecode setzte auf ei- nen Ansatz mit Künstlicher Intelligenz. Ma- chine-Learning-Modelle können dabei mit minimalem Aufwand in einem skalierbaren, verteilten Cluster verwendet werden. Die Ergebnisse wurden in einem Dashboard auf Basis von SAP Analytics Cloud interak- tiv präsentiert. Ausgangssituation Das Unternehmen SAP vertreibt im eigenen SAP Store Softwarelizenzen und Dienstleistungen. Die Bedeutung des E-Commerce-Shops im B2B-Ge- schäft nimmt stetig zu. Daraus ergibt sich die Heraus- forderung, die Umsätze verlässlich zu prognostizie- ren. Außerdem bietet es sich an, die tatsächliche Customer Journey zu analysieren. Die Analyse führt idealerweise zu den Schritten im Kaufprozess, die die Kaufentscheidung beeinflussen, und die sich sodann optimieren lassen. Ein Problem in der aktuellen Situ- ation ist, dass es verschiedenste Datenquellen für das E-Commerce-Geschäft gibt, die für die Analyse zusammengeführt werden müssen. Aufgabenstellung und Ziele Ziel des Projekts war es, eine horizontal skalierbare Big Data Analyseplattform zu entwickeln, um die Rohdaten aus den unterschiedlichen Datenquellen zu streamen und zu speichern. Die Rohdaten sollten angemessen verarbeitet werden, um bessere Einbli- cke zu den Umsätzen und zu weiteren Vertriebsdaten zu erhalten. Des Weiteren sollten Zusammenhänge in den Daten identifiziert werden, und auf dieser Ba- sis eine Umsatzprognose (Forecast) erstellt werden. Die Ergebnisse sollten außerdem mit einem geeigne- ten Werkzeug visualisiert werden. Big Data Plattform Die Basisarchitektur, auf der alle Gruppen aufbauen, besteht aus einem Messaging Service (Apache Kafka), einer zentralen Datenbank (PostgreSQL) und einem Big-Data Framework (Apache Flink). Alle Ser- vices laufen auf Docker und sind damit als Container sehr flexibel handhabbar. Lösungsansatz Die Basisplattform wird um Services erweitert, die mittels eines Machine-Learning-Modells die Daten auswerten und Vorhersagen treffen. Diese Machine- Learning-Umgebung ermöglicht es, mit minimalem Aufwand beliebige Modelle zu verwenden und außer- dem eine hohe Skalierbarkeit zu bieten. Zusätzlich wurden Tools für Monitoring und Data Ex- ploration eingebaut, welche den Betrieb und die inter- aktive Arbeit mit den Daten erleichtern. Ergebnisse Neben der Software wurde eine umfangreiche Doku- mentation ausgeliefert, welche sowohl ein Benutzer- handbuch als auch eine technische Dokumentation aus Entwicklersicht umfasst. Zusätzlich wurde SAP bereits während des Projekts in Bezug auf die Anfor- derungen an Daten für Maschinelles Lernen beraten. Des Weiteren wurden die Ergebnisse und die zur Verfügung gestellten Daten mittels der Software SAP Analytics Cloud visualisiert. Das Ergebnis ermöglicht SAP durch die Einbindung verschiedener Wrapper- Klassen, dass einzelne Teile problemlos in die unter- nehmensspezifische Infrastruktur eingebunden wer- den können. Vorgehensweise Mithilfe der agilen Vorgehensweise im Projektma- nagement sind die Studierenden an die Realisierung des Projekts herangegangen. Durch ein kontinuier- lich gepflegtes Taskboard, tägliche Meetings, Retro- spektiven, Ausliefern von Produktinkrementen und durchgehende Synchronisation haben die Studieren- den ihre Effektivität durchgehend verbessern kön- nen. Kundenwünsche wurden fortlaufend in das Pro- dukt eingepflegt und ergebnisorientiert verarbeitet. In regelmäßigen Abständen wurden mit dem Kunden Reviews durchgeführt, um das Produkt mit den Kun- denwünschen abzustimmen. Fazit In enger Zusammenarbeit von Kunden und Studie- renden konnte in der Zeit von 12 Wochen ein echter Mehrwert für alle Beteiligten geschaffen werden. Die Studierenden haben eine intensive und realitätsnahe Lernerfahrung gemacht und realistische Einblicke in den Ablauf und die Herausforderungen von Kunden- projekten erhalten. Zusätzlich haben sie moderne Technologien im praktischen Einsatz kennengelernt. Der Kunde hat einen Prototyp erhalten, der aufzeigt, wie mit einer zeitgemäßen Infrastruktur eine skalier- bare Plattform aufgebaut werden kann, in der Statis- tiken, Analysen und Prognosen aus den E-Com- merce Daten gewonnen werden können.