Big Data und Prozessmanagement im Unternehmenseinsatz
Lange Zeit blieben digitale Datenmassen ungenutzt. Wie können Unternehmen Big Data im Geschäftsprozessmanagement nutzen, um daraus Chancen und Erkenntnisse zu gewinnen? Im Fokus dieser Arbeit steht zudem die Beantwortung der Frage, welche Herausforderungen und Risiken mit Big Data verbunden sind.

1. Einleitung
1.1 Relevanz des Themas
Im Jahr 2022 werden schätzungsweise 97 Zetabytes an Datenvolumen erzeugt, vor zehn Jahren waren es nur 6,5 Zetabytes. Der jährliche Anstieg von etwa 25 Prozent lässt sich zurückführen auf die rasante Verbreitung des Internets und mobiler Endgeräte.[1] Lange Zeit blieb das unternehmerische Potenzial dieser riesigen Datenmengen aufgrund fehlender Hardware, Software und Konzepte im Verborgenen.[2] Jedoch gelten diese Daten als das Öl des digitalen Zeitalters: „in unverarbeiteter Form sind sie relativ nutzlos, aber wenn es gelingt, durch aufwendige Verfahren und Analysen Struktur in die Daten zu bekommen, dann können sie zur Beantwortung von neuen Fragestellungen genutzt werden und ihr finanzielles Potenzial entfalten“[3]. Die Problemstellung riesige Datenmengen nutzbar zu machen steht im Mittelpunkt von Big Data und verändert grundsätzlich auch das Geschäftsprozessmanagement.
1.2 Ziele der Arbeit
Hauptziel der vorliegenden Arbeit besteht in der Darstellung von Big Data und Prozessmanagement im Unternehmenseinsatz. Ebenso soll der aktuelle Forschungsstand dieser Begriffe betrachtet werden. Ein weiteres Hauptziel bildet die Entwicklung eines konkreten Anwendungskontextes unter Beachtung möglicher Potenziale. Die Definition der wichtigsten Begriffe, die chronologische Begriffsentwicklung des Geschäftsprozessmanagements sowie die Darlegung von Herausforderungen und Risiken, die im Kontext von Big Data entstehen, stellen die wesentlichen Unterziele dar.
1.3 Aufbau der Arbeit
Zunächst werden in den Grundlagen die Begriffe Big Data (Kapitel 2.1) und Geschäftsprozess-management (Kapitel 2.2) definiert, bevor die Begriffsentwicklung des Geschäftsprozessmanagements in Kapitel 2.3 dargestellt wird. Im Hauptteil werden in Kapitel 3.1 Big Data und Geschäftsprozessmanagement im betrieblichen Zusammenhang sowie mögliche Vorteile daraus betrachtet. Die Herausforderungen und Risiken von Big Data werden im nachfolgendem Kapitel 3.2 herausgearbeitet. Danach wird der aktuelle Forschungstand von Big Data und Geschäftsprozessmanagement behandelt. Im Schluss des Hauptteils (Kapitel 3.4) wird mit Big Data im Retourenmanagement ein konkreter Anwendungskontext entwickelt. Dazu wird zunächst das Retourenmanagement definiert sowie zwei Unterkategorien beschrieben (Kapitel 3.4.1). Im Folgenden werden verschiedene Gründe für eine Retoure und verbundene Kosten aufgezeigt (Kapitel 3.4.2), bevor potenzielle Datenquellen für Big Data in diesem Zusammenhang erläutert werden (Kapitel 3.4.3). Als Letztes sollen in Kapitel 3.4.4 die Potenziale von Big Data im Retourenmanagement untersucht werden.
2. Grundlagen
2.1 Definition Big Data
„Grundsätzlich kann Big Data als normale Weiterentwicklung der Analyse und Nutzung von Daten betrachtet werden“[4], die durch neue Technologien ermöglicht wurde. Big Data wird in der Regel anhand von diversen Eigenschaften umschrieben, da es sich um einen nicht klar definierten Begriff handelt.[5] Eine zentrale Rolle nimmt in diesem Zusammenhang das 3-V-Modell von Gartner[6] ein.[7]
Die Herausforderung des Datenwachstums lassen sich demnach durch die drei Dimensionen Volume (dt. Volumen), Velocity (dt. Geschwindigkeit) und Variety (dt. Vielfalt) beschreiben. Das Modell wurde später von anderen Autoren (u.a. Bachmann et al.)[8] um die Merkmale Validity (dt. Widerspruchsfreiheit) und Value (dt. Werthaltigkeit) ergänzt.[9] Je nach Definition werden Merkmale ausgelassen bzw. durch weitere Charakteristika modifiziert. Das 3-V-Modell von Gartner bleibt jedoch Grundlage der meisten Definitionen.[10]
Volume nimmt Bezug auf die große und steigende Menge an Daten, die in einem Unternehmen entsteht, gespeichert und verarbeitet wird.[11] Das Internet of Things[12] (IoT, dt. Internet der Dinge) und sowie die Verbreitung neue Hardware (insb. mobile Systeme) können als Grund für diesen Trend identifiziert werden. „Velocity beschreibt die Geschwindigkeit, mit welcher diese Datenmengen hervorgebracht und übermittelt werden“[13]. In diesem Zusammenhang ist auch von Bedeutung, dass Daten in wenigen Sekunden analysiert und ausgewertet werden müssen.[14] Die Eigenschaft Variety bezieht sich auf „die Bandbreite der Datentypen und Datenquellen“[15]. Big Data nutzt den Ansatz polystrukturierter Daten[16], d.h. es werden nicht nur strukturierte Daten, „sondern auch teil[17]- oder nichtstrukturierte Daten wie Videos, Bilder oder freie Texte“[18] genutzt. Unter der Eigenschaft Validity wird die mangelnde Datenqualität der verschiedenen Datensätze verstanden. Um eine hohe Datenqualität zu erreichen, müssen Daten vor einer Auswertung von Verunreinigungen befreit bzw. verdichtet werden, um ein kohärentes Bild zu garantieren.[19] Der Nutzen für ein Unternehmen, der aus Big Data gewonnen werden kann, wird unter dem Merkmal Value definiert.[20]
Im Folgenden wird übereinstimmen mit Mauro et al. (2015) Big Data als Informationsressource definiert, „welche sich durch ein so hohes Volumen, Geschwindigkeit und Vielfalt auszeichnet, dass für die Umwandlung in Wert spezifische Technologien und Analysemethoden“[21] erforderlich sind. Unter dem Begriff Big Data werden somit ferner auch Technologien, Konzepte, Tools und (Analyse-) Methoden (Data Mining, Online Analytical Processing Tool, Maschinelles Lernen und Neuronale Netze) zusammengefasst.[22]
2.2 Definition Geschäftsprozessmanagement
Bevor das Geschäftsprozessmanagement näher untersucht wird, sollen zunächst die Begriffe Prozess und Geschäftsprozess voneinander abgegrenzt werden. Die Begriffe sind nicht einheitlich definiert und werden in der Literatur oftmals synonym verwendet.[23]
„Ein Prozess ist […] eine bestimmte zeitliche und örtliche Anordnung von Arbeitstätigkeiten mit einem Anfang, einem Ende, und klar identifizierte Inputs und Outputs: eine Handlungsstruktur“[24]. Ein Geschäftsprozess stellt hingegen einen speziellen Prozess dar, „der durch die obersten Ziele der Unternehmung (Geschäftsziele) geprägt wird. Wesentliche Merkmale eines Geschäftsprozesses sind die Schnittstellen des Prozesses zu den Marktpartnern des Unternehmens (z. B. Kunden, Lieferanten).“[25]
Zellner (2003) hat in einer Analyse der verschiedenen Definitionen als Gemeinsamkeit herausgearbeitet, „dass sie den Prozess als eine Abfolge von Aktivitäten bzw. Aufgaben wahrnehmen, die in einer zeitlichen Verknüpfung zueinander stehen. Des Weiteren besteht Einigkeit darüber, dass jeder Prozess Leistungen von (Prozess-) Lieferanten bezieht (Input) und seinerseits wiederum Leistungen an (Prozess-) Kunden abgibt (Output)“[26]. Der zentrale Unterschied zu den Geschäftsprozessen „liegt in deren Verknüpfung zur Unternehmenstätigkeit bzw. zum Unternehmenserfolg und ihren Schnittstellen zu den Marktpartnern des Unternehmens […]“[27]. Im Folgenden soll auf eine genaue Differenzierung zwischen den beiden Begriffen verzichtet werden, da Big Data sowohl Einfluss auf Geschäftsprozesse als auch auf Prozesse im Allgemeinen hat.
Auch für den Begriff des Geschäftsprozessmanagements findet sich in der Literatur keine einheitliche Definition. Der Begriff wird häufig synonym mit den Begriffen Prozessmanagement[28] und Business Process Management (BPM) verwendet.[29] Geschäftsprozessmanagement (GPM) wird im Folgenden als „ein integriertes System aus Führung, Organisation und Controlling zur zielgerichteten Steuerung und Optimierung von Geschäftsprozessen“[30] definiert. „Integriert bedeutet, dass Aufgaben, Teilsysteme, Methoden, Tools und IT-Unterstützung des Geschäftsprozessmanagements aufeinander abgestimmt geplant, koordiniert, kontrolliert sowie gesteuert werden“[31]. Die Steigerung der Prozesseffektivität und -effizienz hinsichtlich Zeit, Kosten- und Qualitätskriterien, sowie der daraus folgende Beitrag zur Wettbewerbsfähigkeit, zählen zu den zentralen Zielen des Geschäftsprozessmanagements.[32]
2.3 Begriffsentwicklung des Geschäftsprozessmanagements
Grundlegend ist der Begriff des Geschäftsprozessmanagements durch die vier Phasen Arbeitszerlegung (Taylorismus), aktionsorientierte Datenverarbeitung, Prozessorientierung und Digitalisierung geprägt.[33]
„Die Frühphase des Prozessmanagements beginnt mit dem Taylorismus, benannt nach Frederic Winslow Taylor (1856 – 1915), der planende und ausführende Tätigkeiten konsequent getrennt hat“[34]. Aufbau-[35] und Ablauforganisation wurden isoliert betrachtet. In der Ablauforganisation wurde die Arbeit zunächst in kleine Einzelschritte zerlegt und den Elementen der Aufbauorganisation zugeordnet.[36] Die Folge war eine „Zersplitterung des Ablaufs in einzelne Fragmente“[37], die einen Blick auf den gesamten Ablauf unmöglich machten.[38]
Erst ab ca. 1970 kam mit der Weiterentwicklung der elektronischen Datenverarbeitung „wieder Bewegung in die traditionelle organisatorische Trennung von Arbeitsabläufen und der Aufbauorganisation“[39]. Das Konzept der aktionsorientierten Datenverarbeitung (AODV)[40] entwickelte die Möglichkeit die EDV „zur Steuerung von arbeitsteiligen Abläufen besser zu nutzen“[41].[42] Die Grundidee bestand in der Steuerung der Abläufe auf der Ebene elementarer Arbeitsschritte.[43]
Etwa 1990 begann die Phase der Prozessorientierung, in der mehrere Autoren (u.a. Hammer 1990, Scheer 1990 und Österle 1995) „die Wiederzusammenfügung von zusammenhanglosen Funktionen zu einem übergreifenden Gesamtprozess und die Trennung von Prozessverantwortung und Aufbauorganisation“[44] forderten. In dieser Phase kam es zudem zur einer intensiveren „Nutzung der mittlerweile deutlich leistungsfähigeren Informationstechnik als ,Integrationsinstrument‘ “[45], die sich vor allem in den Einsatz prozessorientierter Anwendungssoftware (z.B. SAP R/2) niederschlug.[46]
Ab etwa 2010 beeinflussen verschiede Konzepte des Informationsmanagements wie Big Data, Industrie 4.0 und Cloud Computing maßgeblich das Prozessmanagement. In der Phase der Digitalisierung kommt „neben der organisatorischen Koordination (Wer macht was?) […] nun die technische Koordination hinzu (Welche Prozesse werden mit welchen ,Apps‘ unterstützt?)“[47].
3. Hauptteil
3.1 Big Data und Geschäftsprozessmanagement im betrieblichen Zusammenhang
Big Data wird in vielen Unternehmen genutzt, um bestehende Geschäftsprozesse wie Kundenanalysen, Reporting oder Verhaltensanalysen zu beschleunigen.[48] Grund dafür ist, dass sich Zeit „immer mehr zu einem Wettbewerbsfaktor [entwickelt]“[49]. Die Verarbeitung großer Datenmengen in Echtzeit gerät folglich immer stärker in den Mittelpunkt.
Daraus folgt auch, dass Unternehmen einerseits schneller auf Veränderungen in der (Unternehmens-) Umwelt reagieren müssen und Entscheidungen aufgrund einer genaueren Datenlage besser getroffen werden können.[50]
Mithilfe von Big Data können aber auch die Fragen beantwortet werden, was (Deskriptiv – Abweichungsanalysen) und warum etwas geschehen ist (Diagnostisch – Ursache-Wirkungs-Analysen).[51] Prozesse können so besser verstanden und hinsichtlich Kosten oder Qualitätskriterien optimiert werden (z.B. Identifikation eines Maschinenfehlers). Darüber hinaus bietet Big Data im Rahmen von Predictive Analytics die Möglichkeit, Prognosen über zukünftige Situationen aufzustellen: „Durch die Vorhersage von Trends können Ressourcen, Produktion und Absatz entsprechend geplant werden“[52].[53]
Ziel des Geschäftsprozessmanagements ist, wie bereits in Kapitel 2.2 dargestellt, nicht nur eine Beschleunigung und Optimierung von Geschäftsprozessen, sondern auch die Steuerung dieser. Im Rahmen von Big Data werden Verfahren der künstlichen Intelligenz genutzt, die es ermöglichen Geschäftsprozesse zu steuern. Insgesamt für dies zu einer Reduzierung von Kosten und einer Beschleunigung der Geschäftsprozesse.
3.2 Herausforderungen und Risiken von Big Data
Big Data bringt nicht nur unternehmerische Chancen, sondern auch betriebliche Herausforderungen und gesellschaftliche Risiken mit sich.[54]
Zentrale Herausforderungen für Unternehmen, die im Rahmen von Big Data zu bewältigen sind, lassen sich wie folgt kategorisieren:
- Im Zusammenhang von Datenmanagement geht es darum, immer größere Speicherkapazitäten zu ermöglichen. Erreicht wird dies häufig durch den Einsatz von Cloud-Lösungen.
- Immer größer werdende Datenmengen müssen schnell übertragen werden, damit sie in Echtzeit verarbeitet werden können. Dies setzt eine schnelle Netzwerktechnik voraus.[55]
- „Im Bereich Datenanalyse sind geeignete statistische oder mathematische Algorithmen zur Modellierung und Darstellung der unterschiedlichen Daten sowie angepasste Mechanismen zur Wissensentdeckung auf großen und dynamischen Datenvolumina relevant“[56].
- Eine weitere Herausforderung besteht darin, eine hohe Datenqualität zu gewährleisten, ohne die eine sinnvolle Analyse der Daten nicht möglich wäre.[57]
- Die hohen (Anfangs-) Kosten machen den Einsatz von Big Data für viele Unternehmen wirtschaftlich nicht sinnvoll.[58]
- In vielen Unternehmen fehlt es an technologischem und fachlichem Know-how, die für eine Umsetzung notwendig wäre.[59]
Die Themenbereiche Datenschutz und Datensicherheit stellen Risiken dar, die nicht nur Unternehmen selbst betreffen, sondern für die gesamte Gesellschaft bedrohlich sein können. Im Zusammenhang mit dem Thema Datenschutz, geht es „um die Möglichkeit der Meinungsbildung, Machtmissbrauch und Kontrolle durch eine zunehmende Datenakkumulation“[60]. Die Daten (insb. personenbezogene) müssen zudem einer hohen Sicherheit unterliegen, damit sie nicht gestohlen oder verändert werden.[61] Eine Missachtung kann zu direkten (Geldbußen) und indirekten (Kundenverlust) Schäden führen.
3.3 Aktueller Forschungsstand von Big Data und Geschäftsprozessmanagement
Wesentlich geprägt wird die aktuelle Entwicklung von Big Data durch das Cloud Computing, künstliche Intelligenz, In-Memory-Computing sowie verschiedene Softwarelösungen (u.a. das Framework Hadoop). Robotic Process Automation (RPA) ist hingegen für die Forschung im Geschäftsprozessmanagement von wesentlicher Bedeutung.
Da es für Cloud Computing in der Literatur keine einheitliche Definition gibt, wird auch dieser Begriff Anhand verschiedener Merkmale und Ausprägungen definiert.[62] Charakterisiert wird Cloud Computing durch eine flexible und skalierbare Infrastruktur, der „Illusion von unendlichen Computer-Ressourcen, die auf Abruf zur Verfügung stehen“[63], einer nutzenbasierten Abrechnung und dadurch, dass „alle Dienste von einem Provider im Internet oder Intranet erbracht werden“[64].[65] Für Big Data nimmt Cloud Computing eine zentrale Rolle ein, da eine maximale Speichergröße entfällt (einfachere Skalierbarkeit) sowie der Kosten- und Zeitaufwand im Vergleich zu eigenständigen Lösungen geringer ist. So können selbst kleine und mittelständische Unternehmen komplexe Auswertungen durchführen.[66]
„In-Memory-Computing beschleunigt Datenzugriffe durch den vollständigen Betrieb von Datenbanken direkt im Arbeitsspeicher (RAM) oder in einer Kombination aus RAM- und SSD-Speicher (Solid State Drive)“[67]. Im Kontext von Big Data können Zugriffszeiten stark reduziert und Datenraten deutlich erhöht werden.[68] Mit der Einführung neuer RAM-Modelle (DDR5) Ende 2021 werden noch schnellere Datenraten (4800-6400Gbps)[69] und eine höhere Speicherkapazität (64GB) pro RAM-Stick ermöglicht.[70]
Maschinelles Lernen als Teilgebiet der künstlichen Intelligenz umfasst „Methoden, die mithilfe von Lernprozessen Zusammenhänge in bestehenden Datensätzen erkennen, um darauf basierend Vorhersagen zu treffen“[71].[72] Neben Vorhersagen, kann das Erkennen von Mustern und Zusammenhängen sowie das Treffen von Entscheidungen als Ziel des maschinellen Lernens identifiziert werden.[73]
Früher wurde für die Implementierung von Big Data im Unternehmen das Open-Source-Framework Apache Hadoop genutzt.[74] Dabei handelt es „sich um ein Framework mit einem verteilten Dateisystem, das das Speichern, Suchen und Analysieren von unterschiedlich strukturierten Daten auf einem Cluster von Standardrechnern ermöglicht“[75]. Inzwischen wird Hadoop durch die Kombination neuerer Technologien (u.a. Kubernetes, Amazon Simple Storage Service und Apache Spark) abgelöst.[76]
Robotic Process Automation (RPA) bezeichnet eine Technologie, „mit der die manuellen Tätigkeiten der Mitarbeiter durch Software-Roboter ausgeführt werden können“[77]. Dazu wird den Robotern beigebracht, wann und wie sie welche Aufgabe umsetzen. Das Unternehmen profitiert von dieser Automatisierung durch eine Verminderung von Fehlern, die bei einer manuellen Eingabe entstehen können, der Möglichkeit Prozesse ohne Unterbrechung laufen zu lassen sowie insgesamt von Zeit-, Kosten und Aufwandsersparnissen.[78]
3.4 Big Data im Retourenmanagement - Anwendungskontext
3.4.1 Definition und Arten des Retourenmanagements
Das Retourenmanagement „stellt eine wesentliche Aufgabe der Rückführungslogistik (auch Reverse Logistics) und des Kundenmanagements dar, bei der Waren-, Finanz- und Informationsflüsse zwischen dem Rücksendenden („Retournierer“) und dem Lieferanten eines Gutes geplant, gesteuert und kontrolliert werden“[79]. Unterteilt wird das Retourenmanagement in präventives und reaktives Retourenmanagement.
Das präventive Retourenmanagement zeichnet sich durch „die zielgerichtete Einflussnahme auf die Retourenmenge, bevor es überhaupt zu einer Rücksendung kommt“[80], aus. Zu den wichtigsten Maßnahmen zählen in diesem Zusammenhang u.a. eine ausführliche Produktbeschreibungen, Größenberatung, Kundenbewertungen, Restriktionen im Auswahlprozess, Ausschluss von Vielretournierern, professionelle Verpackung zum Schutz vor Beschädigungen und eine Qualitätssicherung vor dem Versand. Darüber hinaus können finanzielle Anreize angeboten werden, wenn Kundinnen und Kunden die Ware nicht retournieren. Eine weitere - jedoch durchaus kritische[81] - Möglichkeit besteht darin, den zeitlichen und finanziellen Retourenaufwand zu erhöhen.[82]
Das reaktive Retourenmanagement beschäftigt sich hingegen mit der effektiven und effizienten Verarbeitung von Retouren, „deren Rücksendung durch Kunden bereits veranlasst wurde und nicht mehr durch präventive Maßnahmen verhindert werden können“[83].[84] Insgesamt geht es um die „quantitative (Menge pro Zeiteinheit) und qualitative (fehlerfreie Warenaufbereitung) Optimierung der Durchlaufzeiten im Retourenprozess“[85]. Der Retourenprozess im Unternehmen beginnt mit der Warenannahme. Darauf folgt die Mengen-, Qualitäts- und Funktionsüberprüfung. Im nächsten Schritt wird die Ware nach Wiederverwertbarkeit klassifiziert und ggf. wiederaufbereitet.[86] Im letzten Schritt erfolgt die „Rückführung von wiederverkaufsfähiger Ware in den Neuwarenbestand oder deren Weiterleitung an Wiederverkäufer sowie die Entsorgung von nicht wiederverkaufsfähiger Ware“[87].
3.4.2 Gründe und Kosten im Retourenmanagement
Ein nicht passender Artikel gilt als häufigster Grund für eine Retoure. Für 62% der Befragten einer Studie galt dies als ein Grund für eine Rücksendung. 39% der Befragten gaben an einen Artikel zurückgesendet zu haben, weil dieser ihnen nicht gefiel. Jeweils 30 Prozent haben bereits einen Artikel zurückgesendet, da dieser nicht der Beschreibung entsprach und defekt oder beschädigt geliefert wurde. 20 Prozent nannten als Grund, mehrere Varianten zur Auswahl bestellt zu haben.[88] Die Retourenquote ist jedoch stark abhängig von der Branche. So beträgt diese in der Bekleidungsbranche bis zu 50%.[89]
Pro Rücksendung (Paket) belaufen sich die Kosten auf durchschnittlich 19,51 Euro, pro Artikel liegen die Kosten etwas niedriger bei 11,24 Euro.[90] „Diese Kosten setzen sich aus den Transportkosten (pro Sendung 9,85 Euro, pro Artikel 5,67 Euro) und den Bearbeitungskosten (9,66 Euro pro Sendung, 5,57 Euro pro Artikel) zusammen“[91].
3.4.3 Potenzielle Datenquellen
Als Datenquellen für Big Data im Retourenmanagement dienen neben unternehmensfremden Produktbewertungsportalen auch Bewertungen, die die Käufer*innen auf der Website des Unternehmens abgeben können. Diese Bewertungen sind relativ einfach einem Produkt zuzuordnen. Bei Bewertungen aus sozialen Medien als weitere Datenquelle kann sich dies hingegen schwieriger gestalten, da Verbraucher*innen nur selten genaue Produktnummern zur Identifikation verwenden. Ein weiterer Vorteil von eigenen Bewertungsportalen ist, dass eine bestimmte Struktur[92] vorgegeben werden kann. Daten erhalten folglich eine bessere Struktur und können einfacher ausgewertet werden. Auch das ERP-System und der Kundensupport des Unternehmens können als wichtige Datenquellen identifiziert werden.[93]
3.4.4 Big Data im präventivem und reaktivem Retourenmanagement
Im Rahmen des präventivem Retourenmanagement kann Big Data zur Verringerung der Rücksendewahrscheinlichkeit maßgeblich beitragen. Ein Ansatz „kann die dynamische Beeinflussung der Anzeige von Artikeln und deren Auswahl bei Betreten des Onlineshops je nach Konsument sein“[94]. Konsumentinnen und Konsumenten mit einer hohen Retourenwahrscheinlichkeit werden dazu bestimmte Artikel und Größen ausgeblendet.[95] Die Auswertung der verschiedenen Datenquellen ermöglicht zudem die Identifikation häufiger Produktprobleme und -fehler. In der (Online-) Bekleidungsbranche findet man in der Regel Informationen darüber, wie Bekleidungsstücke in ihrer Größe ausfallen. Bei Produktfehlern können aufgrund der gewonnenen Daten in der Produktion zudem Maschinen und Abläufe verbessert werden. Der Online-Händler Otto setzt Big Data auch zur Retourenprognose ein und ermöglicht dadurch eine Einschätzung, „welche Investitionen kostengünstig zur Verringerung der Lieferzeit führen und bei welchen Artikeln neue aufwendige Technologien (wie bspw. virtuelle Anprobiermöglichkeiten durch Virtual Try-On) sinnvoll sind und zur Reduktion der Retouren aufgrund der Verringerung der Auswahlbestellung führen“[96].[97]
In Bezug auf das reaktive Retourenmanagement kann Big Data genutzt werden, um den Retourenprozess zu beschleunigen. Mithilfe diverser Sensoren kann Big Data eingesetzt werden, um die Qualitäts- und Funktionsüberprüfung einer Retoure und deren Klassifizierung durchzuführen. So lassen sich auch die hohen Bearbeitungskosten, die bei einer manuellen Überprüfung entstehen, senken und die Ware gelangt schneller wieder zurück in einen verkaufsfähigen Zustand.
Jedoch sind die Fragen, „inwieweit eine kundenspezifische Produktanzeige die Kaufwahrscheinlichkeit signifikant verringern könnte und welche Einflüsse auf die Kundenakzeptanz bestehen, […] in der praktischen Anwendung durch empirische Studien noch zu überprüfen“[98]. Darüber hinaus gelten im Allgemeinen die Einschränkungen, die bereits in Kapitel 3.2 vorgestellt wurden.
4. Schlussbetrachtung
Big Data sorgt im Geschäftsprozessmanagement für eine Beschleunigung und Steuerung der Geschäftsprozesse. Mithilfe von Big Data sind Abweichungsanalysen, Ursachen-Wirkungs-Analysen und Prognosen möglich. Im Fokus stehen die Steigerung der Prozesseffektivität und -effizienz hinsichtlich Zeit, Kosten- und Qualitätskriterien. Die größten Herausforderungen für Unternehmen im Zusammenhang mit Big Data stellen die Bereitstellung von ausreichender Speicherkapazität, gute Datenqualität, hohe (Angangs-) Kosten und fehlendes Fachwissen dar. Risiken für ein Unternehmen und die Gesellschaft gehen von den Themenbereichen Datenschutz und Datensicherheit aus. Die aktuelle Big Data Forschung ist geprägt durch das Cloud Computing, künstliche Intelligenz, In-Memory-Computing und unterschiedliche Softwarelösungen. Die Forschung im Geschäftsprozessmanagement beschäftigt sich hingegen mit der Technologie Robotic Process Automation.
Aktuell erfordert der Einsatz von Big Data zunächst hohe Kosten, die nicht nur durch Hard- und Softwareanforderungen, sondern auch durch spezielle Fachkräfte, entstehen. Die Folge ist, dass sich Investition in Big Data für kleine und mittlere Unternehmen häufig nicht lohnen. Zu erwarten ist, „dass langfristig vor allem darauf abgezielt wird, die Zugänglichkeit von Big Data zu erhöhen“[99]. Der technologische Fortschritt wird in Zukunft dafür sorgen, dass sich einerseits die Verarbeitung von großen Datenmengen einfacher gestaltet und andererseits eindeutigere Ergebnisse liefern wird.
Aufgrund der Seitenvorgaben und Komplexität einiger Themen (künstliche Intelligenz, RPA, etc. pp.) konnten diese nur oberflächlich behandelt werden. Die aktuelle Forschung in den Gebieten Big Data und Geschäftsprozessmanagement beschäftigt sich außerdem mit Technologien und Themen, die hier nicht vorgestellt wurden. Dazu gehören u.a. Not Only SQL (NoSQL) Datenbanken, allgemeine Entwicklungen der Industrie 4.0, Blockchain und digital Twins. Auch die Themen Datenschutz und Datensicherheit wurden nur kurz behandelt. Festzustellen ist aber, dass in Deutschland in diesem Zusammenhang umfangreiche gesetzliche Bestimmungen und gesellschaftliche Konventionen zu beachten sind.[100] Big Data wurde anhand der wichtigsten fünf V‘s definiert (Volume, Velocity, Variety, Validity und Value), einige Autoren konnten jedoch neun weitere V‘s identifizieren.[101] Die durchschnittlichen Retourenkosten in Kapitel 3.4 stammen aus einer Studie, die nicht öffentlich zugänglich ist. Stattdessen wurde eine Sekundarquelle verwendet. Die kleine Teilnehmerzahl von nur 68 Teilnehmer*innen ist ein weiterer Kritikpunkt dieser Studie. Zuletzt ist darauf hinzuweisen, dass die Potenziale und damit der Nutzen von Big Data stark abhängig von dem Einsatzgebiet sind. Folglich konnten Vorteile nur im Allgemeinen dargestellt werden, jedoch zeigt das Retourenmanagement deutlich, wie Unternehmen von Big Data im Geschäftsprozessmanagement profitieren können.
I. Literaturverzeichnis – Buchquellen
[Appelfeller, W., 2018] Appelfeller, W./Feldmann, C. (2018): Die digitale Transformation des Unternehmens - Systematischer Leitfaden mit zehn Elementen zur Strukturierung und Reifegradmessung. Berlin: Springer Gabler, S. 88
[Arockia, P.S., 2017] Arockia, P.S./Varnekha, S.S./Veneshia, K.A. (2017): The 17 V’s Of Big Data. In: International Research Journal of Engineering and Technology (IRJET), 4 (9). Singapore: World Scientific, S. 330-331
[Bachmann, R., 2014 ] Bachmann, R./Kemper, G./Gerzer, T. (2014): Big Data – Fluch oder Segen? Unternehmen im Spiegel gesellschaftlichen Wandels. Heidelberg: Mitp Verlag, S. 23
[Bange, C., 2013] Bange, C./Grosser, T./Janoschek, N. (2013): Big Data Survey Europe. Würzburg: Business Application Research Center, S. 12 ff.
[Becker, J., 2012] Becker, J./Kahn, D. (2012): Der Prozess im Fokus. In: Becker, J./ Kugeler, M./Rosemann, M. (Hrsg.): Prozessmanagement, 7. Aufl., Berlin: Springer Gabler, S. 7
[Berthold, H.-J., 1983] Berthold, H.-J. (1983): Aktionsdatenbanken in einem kommunikationsorientierten EDV-System. In: Ludwig, T. (Hrsg.): Informatik Spektrum, 6 (1). Berlin: Springer Verlag, S. 20-26
[Davenport, T., 1993] Davenport, T. (1993): Process Innovation - Reengineering Work Through Information Technology. Boston: Harvard Business School Press, S. 5
[Deges, F., 2017] Deges, F. (2017): Retourenmanagement im Online-Handel -Kundenverhalten beeinflussen und Kosten senken. Wiesbaden: Springer Gabler, S. 23-30
[Evsan, I., o.D.-a] Evsan, I./Markgraf, D. (o.D.): Automatisierung - Management der digitalen Transformation in der Praxis II: Tools und Services (DIT434). Stuttgart: AKAD Bildungsgesellschaft mbH, S. 11-43
[Evsan, I., o.D.-b] Evsan, I./Markgraf, D. (o.D.): Prozesse im Digital Business - Management der digitalen Transformation in der Praxis II: Tools und Services (DIT433). Stuttgart: AKAD Bildungsgesellschaft mbH, S. 42
[Faber, O., 2019] Faber O. (2019): Digitalisierung – ein Megatrend: Treiber & Technologische Grundlagen. In: Erner M. (Hrsg.): Management 4.0 – Unternehmensführung im digitalen Zeitalter. Berlin: Springer Gabler, S. 23-24
[Gadatsch, A., 2016] Gadatsch, A. (2016): Die Möglichkeiten von Big Data voll ausschöpfen. In: Schäffer, U. (Hrsg.)/Weber, J.(Hrsg.): Controlling & Management Review, 60 (Ergänzungsausgabe 1). Berlin: Springer Gabler, S. 62-63
[Gadatsch, A., 2017a] Gadatsch, A. (2017): Grundkurs Geschäftsprozess-Management - Analyse, Modellierung, Optimierung und Controlling von Prozessen, 8. Aufl., Wiesbaden: Springer Vieweg, S. 2-159
[Gadatsch, A., 2017b] Gadatsch, A./Landrock, H. (2017): Big Data für Entscheider - Entwicklung und Umsetzung datengetriebener Geschäftsmodelle. Wiesbaden: Springer Vieweg, S. 13-23
[Gluchowski, P., 2014] Gluchowski, P. (2014): Empirische Ergebnisse zu Big Data. In: Knoll, M./Reinheimer, S./ D'Onofrio, S. (u.a.) (Hrsg.): HMD Praxis der Wirtschaftsinformatik, 51 (4). Wiesbaden: Springer Fachmedien, S. 404
[Heimel, J., 2019] Heimel, J./Müller, M. (2019): Controlling 4.0. In: Erner, M. (Hrsg.): Management 4.0 – Unternehmensführung im digitalen Zeitalter. Berlin: Springer Gabler, S. 403-405
[Heinemann, G., 2014] Heinemann, G. (2014): Der neue Online-Handel - Geschäftsmodell und Kanalexzellenz im E-Commerce, 5. Aufl., Wiesbaden: Springer Gabler Verlag, S. 132
[Hentschel, R., 2018] Hentschel, R./ Leyh, C. (2018): Cloud Computing: Status quo, aktuelle Entwicklungen und Herausforderungen. In: Reinheimer, S. (Hrsg.): Cloud Computing (Edition HMD). Wiesbaden: Springer Vieweg, S. 4
[Klein, D., 2013] Klein, D./Tran-Gia, P./Hartmann, M. (2013): Big Data. In: Ludwig, T. (Hrsg.): Informatik Spektrum, 36 (3). Berlin: Springer Verlag, S. 319-322
[Koch, S., 2015] Koch, S. (2015): Einführung in das Management von Geschäftsprozessen. Berlin: Springer Vieweg, S. 10
[Mauro, A. D., 2015] Mauro, A. D./Greco, M./Grimaldi, M. (2015): What is big data? A consensual definition and a review of key research topics. In: AIP Conference Proceedings, 1644 (97). Maryland: AIP Publishing, S. 102-103
[Möhring, M., 2015] Möhring, M./Walsh, G/ Schmidt, R./Ulrich, C. (2015): Moderetouren im Deutschen Online-Handel - Eine empirische Untersuchung. In: HMD Praxis der Wirtschaftsinformatik, 52 (2), Wiesbaden: Springer Fachmedien, S. 259
[Murphy, K. P., 2012] Murphy, K. P. (2012): Machine Learning – A Probabilistic Perspective. Cambridge: The MIT Press, S. 1
[Pospiech, M., 2019] Pospiech, M. (2019): Aufgabengerechte Informationsbereitstellung in Zeiten von Big Data - Konsequenzen für ein Informationsmanagement. Berlin: Springer Gabler, S. 13
[Roger, D. S., 2002] Rogers, D.S./Lambert, D.M./Croxton, K.L. (u.a.) (2002): The Returns Management Process. In: The International Journal of Logistics Management, 13 (2). Bingley: Emerald Group Publishing, S. 5
[Saatkamp, J., 2002] Saatkamp, J. (2002): Business Process Reengineering von Marketingprozessen - Theoretischer Bezugsrahmen und explorative empirische Untersuchung, Dissertation der Universität Erlangen-Nürnberg. Nürnberg: GIM-Verlag, S. 63
[Schmelzer, H. J., 2020] Schmelzer, H. J./Sesselmann, W. (2020): Geschäftsprozessmanagement in der Praxis – Kunden zufriedenstellen, Produktivität steigern, Wert erhöhen, 9. vollständig überarbeitete Aufl., München: Hanser Verlag, S. 12
[Seufert, A., 2016] Seufert, A. (2016): Die Digitalisierung als Herausforderung für Unternehmen - Status Quo, Chancen und Herausforderungen im Umfeld BI & Big Data. In: Fasel, D./Meier, A. (Hrsg.): Big Data -Grundlagen, Systeme und Nutzungspotenziale. Wiesbaden: Springer Vieweg, S. 43-44
[Volk, M., 2020] Volk, M./Staegemann, D./Turowski, K. (2020): Big Data. In: Kollmann, T. (Hrsg.): Handbuch digitale Wirtschaft. Wiesbaden Springer Gabler, S. 1049
[Walsh, G., 2013] Walsh, G./Koot, C./Schmidt, R./Möhring, M. (2013): Big Data — neue Möglichkeiten im E-Commerce. In: Pagel, P. (Hrsg.): Wirtschaftsinformatik & Management, 5 (2). Wiesbaden: Springer Fachmedien, S. 50-55
[Walsh, G., 2015] Walsh, G./Möhring, M. (2015): Wider den Retourenwahnsinn. In: Harvard Business Manager, 2015 (3), S. 8–10
[Welsch, A., 2018] Welsch, A./Eitle, V./Buxmann, P. (2018): Maschinelles Lernen - Grundlagen und betriebswirtschaftliche Anwendungspotenziale am Beispiel von Kundenbindungsprozessen. In: Knoll, M./Reinheimer, S./ D'Onofrio, S. (u.a.) (Hrsg.): HMD Praxis der Wirtschaftsinformatik, 55 (2). Wiesbaden: Springer Fachmedien, S. 370-371
II. Literaturverzeichnis – Internetquellen
[Armbrust, M., 2009] Armbrust, M./Fox, A./Griffith R. (u.a.) (2009): Above the clouds: a Berkeley view of cloud computing. Electrical Engineering and Computer Sciences University of California at Berkeley, https://www2.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf (Zugriff am 08.11.2021), S. 4
[Asdecker, B., 2021] Asdecker, B. (2021): Präventives Retourenmanagement – Definition. Retourenforschung, http://www.retourenforschung.de/definition_praeventives-retourenmanagement.html (Zugriff am 09.11.2021)
[Bamberg, 2019] o.V. (2019): Retourentacho 2018/2019 ausgewertet. Retourenforschung, http://www.retourenforschung.de/info-retourentacho2019-ausgewertet.html (Zugriff am 09.11.2021)
[Bayer, M., 2012] Bayer, M. (2012): Wo Datenverarbeitung in Echtzeit sinnvoll ist. Cio, https://www.cio.de/a/wo-datenverarbeitung-in-echtzeit-sinnvoll-ist,2676310 (Zugriff am 08.11.2021), S. 1
[Bolz, T., 2017] Bolz, T./Diener, M./Wittmann G. (2017): Trends und Innovationen beim Versand - Was erwartet der Kunde? Ibi Research, https://www.ecommerce-leitfaden.de/studien/item/trends-und-innovationen-beim-versand-was-erwartet-der-kunde (Zugriff am 09.11.2021), S. 5-36
[Computerwoche, 2012] o.V. (2012): Wie Otto die Retourenquote verringert. Computerwoche, https://www.computerwoche.de/a/wie-otto-die-retourenquote-verringert,1236376 (Zugriff am 09.11.2021)
[Dabidian, P., 2013] Dabidian, P./Clausen, U. (2013): Big Data – Entwicklungen und Trends in der Logistik. Technische Universität Dortmund, https://www.itl.tu-dortmund.de/cms/Medienpool/Forschung_und_Entwicklung/Aktuelle_Forschungstrends/Working_Paper_BigData_2013.pdf (Zugriff am 08.11.2021), S. 2-3
[Gartner, o.D.] Gartner (o.D.): Big Data. Gartner, https://www.gartner.com/en/information-technology/glossary/big-data (Zugriff am 07.11.2021)
[Holst, A., 2021] Holst, A. (2021): Volume of data/information created, captured, copied, and consumed worldwide from 2010 to 2025. Statista, https://www.statista.com/statistics/871513/worldwide-data-created/ (Zugriff am 09.11.2021)
[McBurney, V., 2012] McBurney, V. (2012): The Origin and Growth of Big Data Buzz. Toolbox, https://www.toolbox.com/tech/big-data/blogs/the-origin-and-growth-of-big-data-buzz-053112/ (Zugriff am 07.11.2021)
[Nicolai, B., 2013]: Nicolai, B. (2013): Bei Otto kommt jede zweite Modebestellung zurück, 17.10.2013. Welt, https://www.welt.de/wirtschaft/article120984126/Bei-Otto-kommt-jede-zweite-Modebestellung-zurueck.html (Zugriff am 09.11.2021)
[Pohlgeers, M., 2019] Pohlgeers, M. (2019): So gehen deutsche Händler mit Retouren um. Onlinehändler News, https://www.onlinehaendler-news.de/e-commerce-trends/logistik/130934-so-gehen-deutsche-haendler-mit-retouren-um (Zugriff am 09.11.2021)
[Taylor, T., 2021] Taylor, T. (2021): Four ways Kubernetes is invading the Hadoop Big Data ecosystem. TechGenix, https://techgenix.com/kubernetes-hadoop-big-data/ (Zugriff am 08.11.2021)
[Walsh, G., 2018] Walsh, G./Möhring, M. (2018): Retourenmanagement - Ausführliche Definition im Online-Lexikon. Gabler Wirtschaftslexikon, https://wirtschaftslexikon.gabler.de/definition/retourenmanagement-53873/version-276935 (Zugriff am 09.11.2021)
[Win-Tools, o.D.] Win-Tools (o.D.): DDR4 vs. DDR5 - Lohnt sich das Upgrade? Win-Tools, https://www.win-tools.de/hardware/arbeitsspeicher/ddr4-vs-ddr5-lohnt-upgrade (Zugriff am 08.11.2021)
[Witte, J., o.D.] Witte, J. (o.D.): 5 x V. Die großen fünf Merkmale von Big Data. Micromata, https://www.micromata.de/blog/big-data/big-data-v5/ (Zugriff am 07.11.2021)
[Zellner, G., 2003] Zellner, G. (2003): Leistungsprozesse im Kundenbeziehungsmanagement – Identifizierung und Modellierung für ausgewählte Kundentypen (Dissertation, Wirtschaftswissenschaften). Universität St. Gallen, https://www.alexandria.unisg.ch/213999/1/dis2838.pdf (Zugriff am 08.11.2021), S. 44
[1] Vgl. Holst, A. (2021) o.S.
[2] Vgl. Klein, D. (2013) S. 319
[3] Klein, D. (2013) S. 319
[4] Gadatsch, A. (2017a) S. 158
[5] Vgl. Klein, D. (2013) S. 319 f.; vgl. McBurney, V. (2012) o.S.; vgl. Gadatsch, A. (2016) S. 63
[6] Vgl. Gartner (o.D.) o.S.
[7] Vgl. Klein, D. (2013) S. 320
[8] Vgl. Bachmann, R. (2014) S. 23
[9] Vgl. Gadatsch, A. (2016) S. 63
[10] Vgl. Mauro, A. D. (2015) S. 102
[11] Vgl. Klein, D. (2013) S. 320
[12] „Das IoT erweitert […] das klassische Internet, das auf die rein virtuelle Welt beschränkt ist, um die Vernetzung (Internet) von und mit Alltagsgegenständen (things)“. (Evsan, I. [o.D.-a] S. 11)
[13] Evsan, I. (o.D.-a) S. 43
[14] Vgl. Witte, J. (o.D.) o.S.
[15] Evsan, I. (o.D.-a) S. 43
[16] Vgl. Bange, C. (2013) 12 ff.
[17] „Halbstrukturierte Daten besitzen zwar auch bis zu einem gewissen Grad eine Struktur, jedoch besitzen sie auch einen unstrukturierten Teil. Ein Beispiel hierfür könnten E-Mail-Nachrichten sein.“ (Klein, D. [2013] S. 319)
[18] Gadatsch, A. (2017a) S. 159
[19] Vgl. Evsan, I. (o.D.-a) S. 43; vgl. Witte, J. (o.D.)
[20] Vgl. Evsan, I. (o.D.-a) S. 43; vgl. Witte, J. (o.D.)
[21] Mauro, A. D. (2015) S. 103
[22] Vgl. Heimel, J. (2019) S. 403 f.
[23] Vgl. Saatkamp, J. (2002) S. 63
[24] Davenport, T. (1993) S. 5
[25] Becker, J. (2012) S. 7
[26] Zellner, G. (2003) S. 44
[27] Zellner, G. (2003) S. 44
[28] Wie bereits im vorherigen Abschnitt dargelegt, bezieht sich Prozessmanagement streng genommen auf Prozesse im Allgemeinen. Im Folgenden soll auch in diesem Fall auf eine genaue Differenzierung verzichtet werden.
[29] Vgl. Koch, S. (2015) S. 10
[30] Schmelzer, H. J. (2020) S. 12
[31] Schmelzer, H. J. (2020) S. 12
[32] Vgl. Schmelzer, H. J. (2020) S. 12; vgl. Pospiech, M. (2019) S. 13
[33] Vgl. Gadatsch, A. (2017a) S. 2 ff.
[34] Gadatsch, A. (2017a) S. 2
[35] „Die Aufbauorganisation regelte die disziplinarische Struktur (Wer ist wem unterstellt?) und legte die Aufgabenzuordnung fest (Wer hat welche Teilaufgabe zu erfüllen?). Damit war die Verantwortung für Teilabschnitte der Leistungserstellung (Funktionen) geklärt“. (Gadatsch, A. [2017a] S. 3)
[36] Vgl. Gadatsch, A. (2017a) S. 3
[37] Gadatsch, A. (2017a) S. 3
[38] Vgl. Gadatsch, A. (2017a) S. 3
[40] „Sogenannte ‚Aktionsdatenbanken‘ enthielten Informationen von Anwendungsprogrammen […] und gaben diese an den jeweiligen Bearbeiter in Form von Aktionsnachrichten weiter […]“. (Gadatsch, A. [2017a] S. 3)
[41] Gadatsch, A. (2017a) S. 3
[42] Vgl. Berthold, H.-J. (1983) S. 20 ff.
[43] Vgl. Berthold (1983) S.20; vgl. Gadatsch, A. (2017a) S. 3
[44] Gadatsch, A. (2017a) S. 4
[45] Gadatsch, A. (2017a) S. 4
[46] Vgl. Gadatsch, A. (2017a) S. 4
[47] Gadatsch, A. (2017a) S. 4
[48] Vgl. Gadatsch, A. (2017a) S. 159
[49] Bayer, M. (2012) S. 1
[50] Vgl. Seufert, A. (2016) S. 43
[51] Vgl. Heimel, J. (2019) S. 404 f.
[52] Faber, O. (2019) S. 23
[53] Vgl. Gadatsch, A. (2017b) S. 13
[54] Vgl. Faber, O. (2019) S. 24
[55] Vgl. Klein, D. (2013) S. 322
[56] Klein, D. (2013) S. 322
[58] Vgl. Seufert, A. (2016) S. 44
[59] Vgl. Dabidian, P. (2013) S. 2 f.; vgl. Gluchowski, P. (2014) S. 404
[60] Faber, O. (2019) S. 24
[61] § 64 BDSG Abs. 3 definiert z.B. die Anforderungen diverse Kriterien (Übertragungskontrolle, Zugriffskontrolle, Speicherkontrolle, etc. pp.) für eine automatische Verarbeitung von Daten wie sie im Rahmen von Big Data vorzufinden ist.
[62] Vgl. Hentschel, R. (2018) S. 4
[63] Armbrust, M. (2009) S. 4
[64] Hentschel, R. (2018) S. 4
[65] Vgl. Hentschel, R. (2018) S. 4
[67] Walsh, G. (2013) S. 50
[68] Vgl. Walsh, G. (2013) S. 50
[69] DDR4 bietet im Vergleich Geschwindigkeiten von i.d.R. 1600-3200Gbps.
[70] Vgl. Win-Tools (o.D.) o.S.
[71] Welsch, A. (2018) S. 370
[72] Vgl. Murphy (2012) S. 1
[73] Vgl. Welsch, A. (2018) S. 371
[75] Appelfeller, W. (2018) S. 88
[76] Vgl. Taylor, T. (2021) o.S.
[77] Evsan, I. (o.D.-b) S. 42
[78] Vgl. Evsan, I. (o.D.-b) S. 42
[79] Walsh, G. (2018) o.S.
[80] Asdecker, B. (2021) o.S.
[81] Diese Methode Retourenreduzierung kann als kritisch angesehen werden, da eine versandkostenfreie Retoure für 92% der Verbraucher*innen als ein wichtiges Kriterium bei einem Kauf in einem Online-Shop gilt. 39% der Käufer*innen haben bereits einmal einen Bestellvorgang aufgrund einer gebührenpflichtigen Retoure abgebrochen. Grundsätzlich bestellen 35% der Befragten nicht bei einem Online-Händler mit gebührenpflichtigen Retouren. (Vgl. Bolz, T. [2017] S. 5/33/36)
[82] Vgl. Deges (2017) S. 23 ff.; vgl. Möhring, M. (2015) S. 259; vgl. Walsh, G. (2015) S. 8 f.; vgl. Heinemann, G. (2014) S. 132;
[83] Deges, F. (2017) S. 29
[84] Vgl. Rogers, D.S. (2002) S. 5
[85] Deges, F. (2017) S. 29
[86] Vgl. Deges, F. (2017) S. 30
[87] Deges, F. (2017) S. 30
[88] Vgl. Bolz, T. (2017) S. 31
[89] Vgl. Nicolai, B. (2013) o.S.
[90] Vgl. Pohlgeers, M. (2019) o.S.; vgl. Bamberg (2019) o.S.
[91] Pohlgeers, M. (2019) o.S.
[92] Denkbar wäre z.B. eine Auswahl mit Optionen wie „Artikel fällt zu groß aus“, „Ärmel sind vergleichsweise kurz“, etc. pp.
[93] Vgl. Walsh, G. (2013) S. 53 f.
[94] Walsh, G. (2013) S. 53
[95] Vgl. Walsh, G. (2013) S. 53 f.
[96] Walsh, G. (2013) S. 53
[97] Vgl. Walsh, G. (2013) S. 53; vgl. Computerwoche (2012) o.S.
[98] Walsh, G. (2013) S. 54
[99] Volk, M. (2020) S. 1049
[100] Vgl. Gadatsch, A. (2017b) S. 14
[101] Vgl. Arockia, P.S. (2017) S. 330 f.