Implementierung eines zeitgemäßen Vertriebscontrollingsystems in einem mittelständischen Unternehmen


Diplomarbeit, 2011

73 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

1. Einleitung
1.1 Bedeutung eines Vertriebscontrollingsystems in einem mittelständischen Industrieunternehmen
1.2 Konzeption zur Einführung von Business Intelligence
1.3 Zielsetzung, Aufbau und Ablauf der Arbeit
1.4 Vorstellung der Fokus Fahrrad AG
1.5 Historische Entwicklung von Business Intelligence

2. Grundlagen von Business Intelligence
2.1 ERP-Systeme
2.2 ETL-Prozess
2.3 Data-Warehouse
2.3.1 Definition und Merkmale eines Data-Warehouse
2.3.2 Data Marts
2.3.3 Metadaten
2.4 Online Analytical Processing
2.4.1 Dimensionen
2.4.2 Hierarchien
2.4.3 Measures
2.4.4 Cubes
2.4.5 Dimensions- und Faktentabellen
2.5 Data Mining

3. Realisierung von Business Intelligence Projekten
3.1 Grundlagen des IT-Projektmanagements
3.1.1 Projekt und IT-Projekt
3.1.2 Projektmanagement
3.1.3 Projektziele
3.1.4 Anforderungen an IT-Projektmanagement
3.2 Vorgehensmodell
3.2.1 Ziele und Nutzen von Vorgehensmodellen
3.2.2 Sequentielle Vorgehensmodelle
3.2.3 Iterative Vorgehensmodelle

4. Betriebswirtschaftliche Grundlagen
4.1 Kennzahlen und Kennzahlensysteme
4.1.1 Definition Kennzahlen und Kennzahlensysteme
4.1.2 Ziele und Nutzen von Kennzahlen und Kennzahlensystemen
4.1.3 Einsatzbereiche von Kennzahlen im Rahmen der BI
4.2 Vertriebscontrolling in mittelständischen Unternehmen
4.2.1 Abgrenzung von Vertrieb und Controlling
4.2.2 Strategisches versus operatives Vertriebscontrolling
4.2.3 Zusammenhang von Vertrieb, Vertriebscontrolling und BI
4.2.4 Bedeutung von Vertriebskennzahlen

5. Analyse und Bewertung der Ausgangssituation
5.1 Darstellung der IST-Situation
5.2 Darstellung des SOLL-Konzepts
5.3 Analyse bestehender Potentiale und Risiken
5.4 Bewertung der Ausgangssituation

6. Projektvorbereitung und Analysephase
6.1 Voraussetzungen von Business Intelligence
6.1.1 Voraussetzungen von Business Intelligence
6.1.2 Auswahl eines geeigneten Vorgehensmodells
6.2 Analysephase

7. Konzeptphase
7.1 Allgemeiner Aufbau des Data-Warehouses
7.2 Ermittlung von Datenquellen
7.3 Transformer Modell
7.4 Überleitungsmodell
7.5 ETL-Prozess-Modell

8. Praktische Umsetzung mit der Standardsoftware Cognos und SQL-Server
8.1 Datenmodellierung
8.2 Modellierung eines Datenwürfels (Cube)
8.3.1 Muster Berichterstellung
8.3.2 Muster Analyse

9. Erfolgsfaktoren bei der Umsetzung von Business Intelligence Projekten

10. Ergebnisse und Ausblick

Literaturverzeichnis

Anhang A

Anhang B

Anhang C

Abbildungsverzeichnis

Abbildung 1: Eigene Darstellung der Definition Business Intelligence nach Schrödl, H.

Abbildung 2: Eigene Darstellung der Ablaufphasen innerhalb der Diplomarbeit

Abbildung 3: Eigene Darstellung der wichtigsten Komponenten einer BI Lösung in Anlehnung an Vercellis, C.

Abbildung 4: Eigene Darstellung des ETL-Prozess nach Jung, R.

Abbildung 5: Eigene Darstellung der Data Warehouse-System-Architektur nach Goeken, M.

Abbildung 6: Eigene Darstellung von Data Marts nach betrieblichen Funktionen in Anlehnung an Petersohn, H.

Abbildung 7: Eigene Darstellung der Metadaten im DWH-Konzept in Anlehnung an Mertens, P.

Abbildung 8: Eigene Darstellung der Dimension “Verkaufsregion” mit den Hierachienstufen “Nord” und “Süd” und den Elementen

Abbildung 9: Eigene Darstellung eines Cube in Anlehnung an Schrödl, H.

Abbildung 10: Eigene Darstellung von Dimensions- und Faktentabellen im Star-Schema in Anlehnung an Dippold, R.

Abbildung 11: Eigene Darstellung von Dimensions- und Faktentabellen im Snowflake-Schema in Anlehnung an Dippold, R.

Abbildung 12: Eigene Darstellung des “Magischen Dreiecks” des Projektmanagement in Anlehnung an Kessler, H.

Abbildung 13: Eigene Darstellung des Wasserfallmodells in Anlehnung an Ruf, W.

Abbildung 14: Eigene Darstellung der iterativen Systementwicklung in Anlehnung an Kemper, H.

Abbildung 15: Eigene Darstellung einer evolutionären Systementwicklung in Anlehnung an Kemper, H.

Abbildung 16: Eigene Darstellung der inkrementellen Systementwicklung in Anlehnung an Kemper, H.

Abbildung 17: Eigene Darstellung der Phasen des Vertriebsprozesses im Zusammenspiel mit BI in Anlehnung an Meyer, M

Abbildung 18: Eigene Darstellung der Berichterstellung

Abbildung 19: Eigene Darstellung der Projektphasen in BI-Projekten in Anlehnung an Schrödl, H.

Abbildung 20: Eigene Darstellung von Data Marts und Data-Warehouse

Abbildung 21: Transformer Modell

Abbildung 22: Ausschnitt des Überleitungsmodells als MindMap

Abbildung 23: ETL-Prozess-Modell als Star-Schema im Visual Studio

Abbildung 24: Umsetzung der Dimensionen und Detaillierungsebenen im Visual Studio

Abbildung 25: Eigene Darstellung des Ablaufs der Datenmodellierung

Abbildung 26: Abbildung eines Cube im Visual Studio

Abbildung 27: Darstellung einer Berichtserstellung im Report Studio von Cognos

1. Einleitung

In den nachfolgenden Abschnitten erfolgt ein Überblick über die Bedeutung von zeitgemäßen Vertriebscontrollingsystemen, unter anderem auch als Teilbereich von Business Intelligence zu sehen, in einem mittelständischen Industrieunternehmen und der notwendigen Konzeption bei dessen Einführung. “Zeitgemäß” bedeutet in diesem Zusammenhang ein Vertriebscontrollingsystem, das der heutigen Zeit bezüglich technischer Möglichkeiten und dem heutigen Wissenstand entspricht. Diesbezüglich werden Zielsetzung, Aufbau und Ablauf der vorliegenden Diplomarbeit aufgezeigt. Hierbei wird die Fokus Fahrrad AG vorgestellt, anhand deren Beispiel die Arbeit angefertigt wurde. Als Abschluss wird die historische Entwicklung von Business Intelligence betrachtet.

1.1 Bedeutung eines Vertriebscontrollingsystems in einem mittelständischen Industrieunternehmen

Durch die stetig fortschreitende Internationalisierung und Globalisierung sowie die permanenten Veränderungen und Neuerungen in der Wirtschaft stehen Unternehmen vor ständig wachsenden Herausforderungen. In mittelständischen Industrieunternehmen zählen dazu vor allem die Modernisierung der technologischen Infrastruktur, das Supply Chain Management zur Optimierung der internen und externen Prozesse entlang der gesamten Wertschöpfungskette, die Steigerung der Produktivität, die Senkung der Kosten sowie die Sicherstellung einer soliden Finanzbasis. Zur Erreichung der genannten Ziele und mittel- bis langfristigen Sicherung der Existenz, müssen Entscheidungen getroffen und Unternehmens- strategien angepasst werden. Dafür ist es erforderlich, die Geschäftsdaten zu analysieren und Fehlentwicklungen frühzeitig zu erkennen. Dabei kommt es vor allem darauf an, die immer größeren Datenmengen im Unternehmen zu strukturieren, um daraus einen basisgebenden Mehrwert für die spätere Analyse zu erreichen. Erst durch Business Intelligence1 erhalten Unternehmen eine signifikante Unterstützung auf Grundlage der Informationstechnologie.

BI bezeichnet die entscheidungsorientierte Sammlung, Aufbereitung und Darstellung geschäftsrelevanter Informationen.2 Es handelt sich dabei um ein unternehmensweites Konzept, Datensammlung, Datenaufbereitung und Informationsdarstellung. Die Definition von Business Intelligence wird in Abbildung 1 verdeutlicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Eigene Darstellung der Definition Business Intelligence nach Schrödl, H.3

Eine besondere Bedeutung kommt dabei der Integration von Einzellösungen zu, die zur Steuerung und Kontrolle von Geschäftsprozessen in den einzelnen Fachbereichen eingesetzt werden.

1.2 Konzeption zur Einführung von Business Intelligence

Für eine erfolgreiche Einführung von BI in einem Unternehmen unterliegt die BI-Infrastruktur während der gesamten Realisierungsphase einer sorgfältigen Planung und Überwachung. Erforderlich hierfür ist eine in sich geschlossene Strategie unter Einbeziehung sämtlicher technischer und organisatorischer Voraussetzungen, die individuell am Unternehmen entwickelt werden muss.

Unter dem Gesichtspunkt der stetig und schnell ansteigenden Datenmengen werden hierbei die Datenintegration und Datenqualität mit berücksichtigt. Unter Datenintegration ist die gemeinsame Nutzung derselben Daten zu verstehen, also die Art und Weise, wie Informationen aus mehreren verschiedenen Datenquellen zusammengeführt werden.4

Datenqualität bedeutet unter anderem, dass die Daten vollständig sind, kontrolliertes Fehlen von Daten berücksichtig wird, doppelte Daten vermieden werden, eine Einheitlichkeit besteht, Ausreißer beurteilt werden können und eine Plausibilität gegeben ist.5

Ebenfalls mit einzubeziehen in die BI ist die Zusammenfassung von informationstechnischen Werkzeugen wie zum Beispiel Data Warehouse oder OLAP.6 Ein Data Warehouse ist ein zentraler Informationsspeicher, der als Unterstützung für Management-Entscheidungen dient.7 OLAP ist die Abkürzung für Online Analytical Processing. Darunter wird eine Technologie zur Verarbeitung multidimensionaler Unternehmensdaten zu Analysezwecken verstanden.8 Data Warehouse und OLAP werden in den fortlaufenden Kapiteln vertiefend behandelt.

Zudem sind die Struktur der Datenströme, die Analyse der Datenqualität, die Bereinigung der Daten aus dem Data Warehouse sowie die operativen Schnittstellen zu ermitteln und zu dokumentieren. Sofern sich im Unternehmen noch kein Data Warehouse im Einsatz befindet, muss dieses neu aufgebaut werden.

Vor der Einführung einer BI Lösung müssen die Verantwortlichkeiten abgestimmt werden. Vor allem ist die Zusammenarbeit zwischen der Informationstechnik9 -Abteilung und den einzelnen Fachbereichen von besonderer Bedeutung. Die Unterstützung der IT-Abteilung wird benötigt, da die BI-Lösung in die vorhandene IT-Infrastruktur implementiert werden muss. Zudem verfügt diese Abteilung über detaillierte Kenntnisse bei der Umsetzung von IT-Projekten.

Für BI steht zwar eine große Bandbreite an Standardsoftware zur Verfügung, jedoch muss diese richtig bewertet, ausgewählt und den individuellen Bedürfnissen angepasst werden. Unter Standardsoftware versteht man Programme, die nicht speziell für einen Kunden geschrieben worden sind, sondern für eine Vielzahl von Kunden mit gleichen Problemen.10

Die unterschiedlichen Aufgabenstellungen und Anforderungen der jeweiligen Fachbereiche müssen aufeinander abgestimmt und unter Berücksichtigung der informationstechnischen Realisierbarkeit vereinbart werden. Prozesse, Inhalte und Funktionen typischer BI-Anwendungen müssen miteinander verknüpft werden. Aus Anwendersicht sind die wichtigsten Kenngrößen im Unternehmen abteilungsübergreifend zu analysieren, zusammenzufassen und zu dokumentieren.11

1.3 Zielsetzung, Aufbau und Ablauf der Arbeit

Zielsetzung dieser Arbeit ist die Konzepterstellung zur Einführung eines modernen Vertriebscontrollings in Form einer BI-Lösung in einem mittelständischen Industrieunternehmen. Die Vorgehensweise zur Implementierung wird am Beispiel des Vertriebscontrollings der “Fokus Fahrrad AG” aufgezeigt.

Zu Beginn werden die Fokus Fahrrad AG vorgestellt sowie relevante Begriffe im Zusammenhang mit BI erklärt. Darauf aufbauend werden die Möglichkeiten und Risiken bei der Einführung einer BI-Lösung reflektiert und dafür geeignete Vorgehensweisen erarbeitet. Nachfolgend werden betriebswirtschaftliche Grundlagen vermittelt, die zur konkreten Erarbeitung der jeweiligen Prozesse erforderlich sind. Es erfolgt dabei die Betrachtung des Vertriebscontrollings in mittelständischen Industrieunternehmen sowie der Kennzahlen und Kennzahlensysteme.

Im nächsten Schritt folgt die Analyse der Ist-Situation bei der Fokus Fahrrad AG sowie die Erstellung des Soll-Konzeptes. Auf der Basis des Soll-Konzeptes wird ein Modell erarbeitet, das die Grundlage für die spätere praktische Umsetzung bildet. Anschließend erfolgt die Beschreibung der Implementierung anhand der theoretischen Konzeption.

Zum Abschluss erfolgt eine kritische Betrachtung und Analyse aller auftretenden Besonderheiten und Risiken für den gesamten Projektablauf.

Die Abbildung 2 veranschaulicht die einzelnen Phasen der Bearbeitungsvorg ä nge zur Einführung von BI in Bezug auf den Verlauf der Diplomarbeit.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Ablaufphasen der Diplomarbeit (eigene Darstellung) anhand eines Gantt-Balkendiagrammes12

1.4 Vorstellung der Fokus Fahrrad AG

Die Fokus Fahrrad AG ist eine der größten Fahrradproduzenten in Deutschland. Als eine der führenden Herstellerinnen Europas produziert sie unabhängige Marken voneinander. Das Portfolio erstreckt sich dabei von City- und Kinderrädern, über Trekking-, Offroad- und Mountainbikes, bis hin zu Wettkampf-Rennmaschinen.

In den 80er Jahren gegründet und anfangs nur mit einer einzigen Marke im Bestand, entwickelte sich die Fokus Fahrrad AG zu einer der größten Fahrradherstellerinnen in Deutschland.

Die Fokus Fahrrad AG erzielte 2009/2010 einen Umsatz von über 120 Millionen Euro durch den Verkauf von 350.000 Fahrrädern. Über 450 Mitarbeiter trugen zu diesem Erfolg bei.

1.5 Historische Entwicklung von Business Intelligence

Business Intelligence ist ein neuer Begriff für eine IT-basierte Managementunterstützung, die auf eine lange Historie zurückzuführen ist. Bereits in den 60er Jahren, die die Anfänge der Kommerzialisierung von elektronischer Datenverarbeitung waren, gab es erste Versuche, das Management mit Hilfe von IT-Systemen zu unterstützen. Enthusiastische Technikgläubigkeit und eher mechanisch ausgerichtete Organisationsverständnisse führten zu umfangreichen Ansätzen der Unterstützung von Führungskräften, die in der Summe jedoch alle scheiterten. Bis zu den 80er Jahren gelang es benutzergruppenspezifische und aufgabenorientierte Lösungsansätze zu entwickeln, die erfolgreich zur Unterstützung des Management eingesetzt werden konnten. Von da an etablierte sich der Begriff “Management Support System (MSS)”, im Deutschen als “Managementunterstützungssystem (MUS)” bezeichnet.

Scott Morton definierte damals den Begriff wie folgt: “the use of computers and related information technologies to support managers” und verdeutlichte damit die Abhängigkeit zwischen Managementunterstützung und dem allumfassenden Bereich der Informations- und Kommunikationstechnologie.

Aufgrund umfangreicher technologischer Entwicklungen im letzten Jahrzehnt haben sich auch grundlegende Veränderungen in allen Bereichen der IT-basierten Managementunterstützung ergeben. Der Begriff “Management Support System” kurz “MSS” ist jedoch auch heute noch gebräuchlich und wird besonders im wissenschaftlichen Bereich weiter verwendet. In der betrieblichen Praxis hat sich seit Mitte der 90er Jahre “Business Intelligence” kurz “BI”, als der neue Begriff für IT-basierte Managementunterstützung entwickelt und etabliert.13

2. Grundlagen von Business Intelligence

Das Konzept von BI besteht aus den drei wesentlichen Komponenten:

- den Datenquellen
- dem Data Warehouse / den Data Marts und
- der Datenanalyse/-visualisierung.

Die verschiedenen Datenquellen, die in den meisten Fällen aus einem ERP-System, den internen Betriebsdokumenten und weiteren externen Datenquellen bestehen, sind vielfach heterogen in Inhalt und Typ. Das Data Warehouse und die Data Marts enthalten die ausgewählten Daten aus den verschiedenen Datenquellen. Die Abgrenzung zwischen Data Warehouse und Data Marts wird in 2.3 näher erläutert. Durch den ETL-Prozess erfolgt das Extrahieren, Transformieren und Laden, also die Auswahl der Daten aus den Datenquellen in das Data Warehouse bzw. die Data Marts. Der ETL-Prozess wird in 2.2 näher beschrieben. Die Datenanalyse und - visualierung beinhalten die verschiedenen Analyse- und Visualisierungsmöglichkeiten in Form von multidimensionalen Analysen14 innerhalb eines Datenwürfels, explorative Datenanalysen15 und zeitbezogene Analysen16. In dieser Ebene wird vom passiven Business Intelligence gesprochen. Diese Passivität wird durch den Faktor bestimmt, dass Entscheidungsträger immer noch selbst Hypothesen bilden bzw. die Auswahl der Datenvisualisierung selbst wählen müssen. In Abbildung 3 werden die Komponenten des passiven BI in den ersten 3 Stufen veranschaulicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Eigene Darstellung der wichtigsten Komponenten einer BI Lösung in Anlehnung an Vercellis, C.17

Data Mining baut auf die passiven Komponenten auf. Von dieser Stufe an wird auch von einem aktivem BI gesprochen; das bedeutet die Auswertung von Informationen und Wissen aus vorhandenen Daten auf Basis von mathematischen und statistischen Modellen. Die Entscheidungsträger müssen die Hypothesen und Annahmen nicht mehr selbst definieren; die verschiedenen Techniken des Data Mining ersetzen sie.

Die Optimierung beinhaltet Modelle, die die Auswahl der besten Lösung aus einem Portfolio an Handlungsalternativen bedeutet, die in der Regel recht umfangreich und manchmal sogar unendlich sind.

Als letzte Komponenten einer BI-Lösung - und damit an der Spitze der Pyramide - steht die eigentliche Entscheidung. Denn obwohl viele BIMethoden verfügbar sind, muss die Entscheidung nach wie vor von den Entscheidungsträgern selbst getroffen werden.18

2.1 ERP-Systeme

ERP-Systeme, die Kurzschreibweise für den englischen Begriff Enterprise Ressource Planning Systeme, decken betriebliche Geschäftsprozesse aus mehreren Unternehmensbereichen ab. Die Integration verschiedener Aufgaben, Daten und Funktionen in ein zentrales Informationssystem ist dabei das signifikante Merkmal von ERP-Systemen. Die gemeinsame Datenhaltung ist hier als minimaler Integrationsumfang zu sehen.

ERP-Systeme integrieren einzelne Mengen von Anwendungsfunktionen, die auf einer einzigen Datenbank aufbauen. Geschäftsprozesse werden in ERP-Systemen abteilungsübergreifend abgebildet und zeichnen sich daher durch eine hohe Prozessintegration aus. Wesentlicher Vorteil dabei ist die Standardisierung von Prozessen, die die Produktivität erhöhen, die Koordination erleichtern, die Führungskräfte entlasten und die Erhöhung der Stabilisierung des organisatorischen Systems fokussiert. Ein ERP- System wird für betriebswirtschaftliche Aufgaben unter anderem in den Bereichen Finanz-/Rechnungswesen, Produktion, Logistik, Vertrieb, Service Management und Personalwesen verwendet.

Ein ERP-System ist in einem drei bis vier Schichtenmodell aufgebaut. Die unterste Schicht, die sogenannte Datenhaltungsschicht, bildet das Basissystem mit der Datenbank und den möglichen Schnittstellen zu anderen Datenbanken. Die Applikationsschicht bildet den Kern des ERP- Systems mit der Verarbeitung sämtlicher Prozesse. Vor der Benutzungsschicht, welche die für den Benutzer bekannte Oberfläche enthält, gibt es je nach System noch eine Adaptionsschicht, die ein Customizing, also das Anpassen an die jeweiligen Unternehmensbedürfnisse, ermöglicht.19

2.2 ETL-Prozess

Der ETL-Prozess bedeutet die Extraktion, Transformation und das Laden der Daten aus den verschiedenen Datenquellen in das Data Warehouse. Er ist häufig die aufwändigste Aufgabe im Aufbau eines Data Warehouses. Besteht bereits ein Data Warehouse, so kommt zum eigentlichen ETL- Prozess noch das Monitoring, also die Überwachung der Datenquellen auf Änderungen, hinzu.

Bereits durch den ETL-Prozess können unbeteiligte Daten direkt ausgeschlossen werden, um so die Zugriffszeit auf die Quellsysteme zu minimieren.

In der Extraktionsphase werden die Regeln für die Extraktion der Daten aus den Quellsystemen in das Zielsystem definiert. Sie geben an, wie und vor allem wann die Daten übertragen werden. Es ist zu definieren, ob eine synchrone Extraktion bei jeder Änderung erfolgen soll oder besser eine asynchrone Extraktion, die periodisch, ereignis- oder anfragegesteuert durchgeführt wird. Zusätzlich sollte die Entscheidung für eine statische oder inkrementelle Extraktion erfolgen. Die statische Extraktion ist als eine Momentaufnahme des gesamten Datenbestandes zu betrachten und wird auch als Snapshot bezeichnet. Das kann ein sehr großes Volumen zur Folge haben und wird daher meistens nur zur Erstbefüllung eines Data Warehouses genutzt. Eine inkrementelle Extraktion beinhaltet zum Beispiel nur die Datensätze, die sich seit der letzten Extraktion geändert haben.20

Bei dem gesamten Prozess der Extraktion werden die Daten aus den Quellsystemen zuvor in einen temporären Zwischenspeicher im Data Warehouse, der sogenannten Staging Area, übertragen.21

In der Transformationsphase werden die Ausgangsdaten innerhalb der Staging Area der angeforderten Zielstruktur angepasst. Dabei kann bereits eine Konsolidierung der Daten stattfinden. Anschließend erfolgt die Vereinheitlichung der Datenformate zum Beispiel durch die Homogenisierung der Darstellung von Zeit- und Währungsdaten. Diese Vereinheitlichung wird auch als Reinigungsfunktion verstanden. Es erfolgt eine statistische Prozesskontrolle zur Überprüfung der Datenqualität, wie zum Beispiel die Überprüfung prozessbedingter Defekte. Das kann das Fehlen einer ganzen Spalte oder auch das Vorhandensein von Duplikaten bedeuten.22 Zum Beispiel ist in der Spalte Land der Wert “Deutschland” erfasst und in der Spalte ISO-Ländercode der Wert “DE”. Auf eine der beiden Spalten kann verzichtet werden, da jeweils die andere Spalte daraus abgeleitet werden kann.

Die Ladephase beinhaltet das eigentliche Laden der Daten in das Data Warehouse. Erstmalig wird das Data Warehouse mit den kompletten Daten befüllt. Beim Laden der Daten in das Data Warehouse werden die betroffenden Tupel gesperrt, wodurch während dieser Phase keine Analysen oder Auswertungen möglich sind. Als Tupel werden die einzelnen Datensätze (Zeilen) in einer relationalen Tabelle bezeichnet.23 Auf die Quellsysteme wird während des Ladens nicht mehr zugegriffen. Das Laden wirkt sich im Wesentlichen auf den Betrieb des Data Warehouses aus. Darauf aufbauend ist das Aktualisieren der bestehenden Daten ein wichtiger Bestandteil. Bei der Aktualisierung werden nur noch die Veränderungen der einzelnen Werte bzw. Datensätze geladen. Um das zu erreichen, wird wie bereits bei der Extraktionsphase dargestellt, darauf geachtet, dass nur die veränderten bzw. neu hinzugefügten Daten ausgewählt werden. Wie die Aktualisierung im Einzelnen erfolgen soll, hängt dabei von den jeweiligen Anforderungen des Projektes ab.24

Abbildung 4 zeigt den ETL-Prozess, beginnend von den verschiedenen Datenquellenüber die Extraktion, die Transformation, bis hin zum Laden der Daten ins Data Warehouse.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Eigene Darstellung des ETL-Prozesses nach Jung, R.25

Der ETL-Prozess kann als ein periodisch wiederkehrender Prozess bezeichnet werden, der sicherstellt, dass die durchgeführten Analysen immer basierend auf den aktuellen Daten erfolgen. Damit die Quellsysteme möglichst uneingeschränkt zur Verfügung stehen, ist die Häufigkeit der Aktualisierung individuell den Bedürfnissen anzupassen. In der Praxis findet die Aktualisierung in vielen Unternehmen daher einmal jede Nacht statt.26

2.3 Data-Warehouse

Mitte der 1980er Jahre bei IBM geprägt und zunächst als Information Warehouse bezeichnet, wurde der Terminus Data-Warehouse 1988 von Barry Devlin (Mitarbeiter von IBM) erstmalig verwendet. Im weiteren Verlauf wurde den Data-Warehouse27 -Definitionen von W. H. Immon gefolgt.28

In Zusammenhang mit dem Begriff DWH wird meist das Thema BI verwendet. Grundsätzlich sind BI und DWH jedoch unabhängig voneinander zu betrachten.

Die Kernideen eines DWH sind:

- Kein direkter Zugriff auf die Bewegungs- / Produktionsdaten,
- Integration verteilter Datenbestände / -quellen und
- Datenverarbeitung und Konsolidierung.

Der direkte Zugriff auf die Produktionsdaten soll dabei meist aus Sicherheits- und/oder Performancegründen vermieden werden. Da bei den meisten BI-Projekten die zu betrachtenden Daten in mehr als einer Datenquelle zu finden sind, kann durch den Einsatz eines zentralen Informationsspeichers so eine Integration der verteilten Daten erfolgen. Die Datenverarbeitung und Konsolidierung beinhaltet hierbei die Aufbereitung der Daten, um bestimmte Qualitätsmerkmale zu prüfen oder Datenbestände zu verdichten.29

In einigen Fällen ist es sinnvoll, nicht den gesamten Datenbestand des DWH zu betrachten. In diesen Fällen werden sogenannte Data Marts gebildet. Data Marts stellen dabei einen subjektspezifischen oder abteilungspezifischen Teilausschnitt dar.30 Um den DWH-Anwender jederzeit in die Lage zu versetzen, die benötigten Informationen zu gewinnen, sind Metadaten erforderlich. Metadaten enthalten Informationen über die Struktur anderer Daten.31 Die nachfolgenden Abschnitte zeigen Definition und Merkmale des DWH, eine vertiefende Erläuterung zu Data Mart und von Metadaten auf.

2.3.1 Definition und Merkmale eines Data-Warehouse

Ein DWH ist ein zentraler Informationsspeicher, der durch die Integration verschiedener operativer Datenbestände gebildet wird. Durch Selektion, Aggregation und Transformation werden nur solche Daten bei der Integration mit einbezogen, die für die Aufgabenstellung relevant sind. Um den Aufbau eines integrierten Informationsspeichers zu ermöglichen, bedarf es einer Daten- und Datenstrukturintegration der in den operativen Systemen enthaltenen Daten in eine gemeinsame Datenbasis.32

In der Abbildung 5 wird die Architektur des Data Warehouse-Systems mit den fünf relevanten Ebenen dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Eigene Darstellung der Data-Warehouse-System- Architektur nach Goeken, M.33

Die Datenquellen, die aus den operativen Datenbanken bestehen, bilden die unterste Ebene. Die Datenerfassungebene stellt die nächse Ebene dar, die den bereits erklärten ETL-Prozess 2.2 abbildet. Die Datenhaltungsebene ist die dritte Ebene und stellt das Data Warehouse an sich dar. In der vierten Ebene, der Datenbereitstellungsebene, findet sich der OLAP-Server wieder. OLAP steht für On-line Analytical Processing und wird in Punkt 2.4 näher erläutert. Die Präsentationsebene bildet, durch das sogenannte Frontend, mit der letzten Ebene den Abschluss der Data- Warehouse-System-Architektur.

Das Konzept des DWH besteht darin, entscheidungsrelevante Informationen aus großen Datenmengen zu sammeln, zu verdichten und zu selektieren. Entscheidungsträger auf unterschiedlicher Hierachieebene können demzufolge analytische und planerische Fragestellungen auf Basis eines einheitlichen, gemeinsamen Datenbestandes beantworten.34

Ein DWH zeichnet sich durch vier Schlüsselcharakteristika aus: subjektorientiert, integriert, nicht-volatil (unbeweglich) und zeitraumbezogen. Die Subjektorientierung bedeutet eine themen- oder inhaltsorientierte Speicherung im Gegensatz zu einer prozessorientierten Datenhaltung in den meisten operativen Systemen. Mittels der Integration wird eine unternehmensweite einheitliche und konsistente Datenhaltung erreicht. Die Daten in einem DWH werden nach dem ursprünglichen Laden nicht mehr geändert. Der Zugriff ist nur noch lesend möglich und damit nicht-volatil. Im Gegensatz zu operativen Systemen werden die Daten nicht transaktionsorientiert abgelegt, sondern innerhalb eines definierten Zeitraumes.35

2.3.2 Data Marts

Data Marts bezeichnen einen Teilausschnitt eines DWH und einen speziellen Teil der Unternehmensdaten. Im Gegensatz zu einem DWH ist ein Data Mart kein unternehmensweiter Informationsspeicher, sondern dient als ein Datenspeicher für bestimmte Organisationseinheiten wie zum Beispiel für die Bereiche “Marketing” und “Vertrieb”. Das deutlich geringere Datenvolumen bringt Zeit- und Kostenvorteile mit sich. Ein DWH hingegen kann durch die Aggregation von großen Datenmengen zu unflexibel und langsam sein. zu viele Data Marts hingegen können dazu führen, dass die Komplexität und damit die Kosten für die Administration steigen. Sowohl das DWH, als auch die Data Marts benutzen dieselbe Technik zum Speichern und Laden der Daten aus operativen Systemen.36

In der Abbildung 6 wird die Positionierung von Data Marts neben einem Data Warehouse veranschaulicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Eigene Darstellung von Data Marts nach betrieblichen Funktionen in Anlehnung an Petersohn, H.37

Es hat sich gezeigt, dass unabhängige Data Marts zu Insellösungen38 führen und bedingen, dass Analysen über Abteilungsgrenzen hinaus nicht oder kaum möglich sind. Somit wird der Ansatz eines unternehmensweiten Informationsspeichers eher konterkariert. Die Vorteile der Data Marts zeigen sich vor allem in dem Fall, wenn anwendungsbezogene redundante Extrakte aus dem unternehmensweiten zentralen Informationsspeicher in unterschiedliche Data Marts geladen werden. In diesem Fall spricht man von abhängigen Data Marts.39

2.3.3 Metadaten

Metadaten sind beschreibende Daten, die über Semantik, Aktualität, Qualität und Herkunft von Daten Auskunft geben. Zusammenhänge eines komplexen Systems können durch sie gezielt und strukturiert analysiert werden. Metadaten können auch als “Daten über Daten” bezeichnet werden.

Sämtliche Informationen, die zur Analyse, Entwicklung und Nutzung von BI benötigt werden, sind im Allgemeinen Metadaten. Sie werden über die gesamte Lebensdauer des BI-Systems generiert, verwaltet und genutzt. Dabei werden zum Beispiel Metadaten über betriebswirtschaftliche Kennzahlen, Dimensionen, Granularitäten und Benutzerprofile zugrunde gelegt. Die Granularität beschreibt dabei den Detailierungsgrad von Daten.40

Abbildung 7 zeigt die Verwendung der Metadaten im DWH-Konzept. Metadaten werden dabei unabh ä ngig von den eigentlichen Datenüber sogenannte Metadatenmanagementsysteme verwaltet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Eigene Darstellung der Metadaten im DWH-Konzept in Anlehnung an Mertens, P.41

Metadaten werden bezüglich Ihrer Nutzung in aktive und passive Metadaten unterteilt. Passive Metadaten dienen lediglich zur Speicherung von Definitionen. Sie finden unter anderem im Bereich der Anwendungsentwicklung und Datenmodellierung Verwendung. Aktive Metadaten hingegen werden als integrale Bestandteile abgelegt und enthalten Strukturinformationen und Transformationsregeln. Sie finden sich unter anderem im DWH, dem Data Query und Reporting wieder.42

Nutzung und Verwaltung von Metadaten dienen der Effizienzsteigerung während der Entwicklung und des Betriebes von BI-Systemen. Bei der Anpassung von Quellsystemen ergeben sich erhebliche Vorteile, da durch die Dokumentation mittels Metadaten die durchzuführenden ETL-Schritte leichter modifizier- und erweiterbar sind. Die Informationen über die Syntax der Quellsysteme erleichtern die Neuentwicklung und Erweiterungen bestehender BI-Systeme. Der Anwender selbst wird durch die Dokumentation in die Lage versetzt, den Prozess von der Datenherleitung über die Datenquelle bis hin zur Datenverwendung einzusehen und zu verstehen.43

[...]


1 Im weiteren Verlauf mit BI bezeichnet

2 Schrödl, H., BI, 2006, S. 12

3 Schrödl, H., a.a.O., S. 13

4 Vgl. Wall, F. Planung, 1999,S. 286

5 Vgl. Schendera, Chr., Datenqualität, 2007, S. 3

6 Vgl. Hoffmann, D., Data Warehouse, 2010,S. 14

7 Vgl. Hoffmann, D., a.a.O., S. 18

8 Vgl. Hoffmann, D., a.a.O., S. 17

9 Im weiteren Verlauf mit IT bezeichnet

10 Vgl. Mertens, P.,Wirtschaftsinformatik, 2005,S. 154

11 Vgl. Hess, T., IT-Basics, 2006, S. 1

12 Vgl. Aichelle, Chr.,Projektmanagement, 2006, S. 82

13 Vgl. Kemper, H.-G., BI 2006, S. 1-2

14 Analysen über mehrere Dimensionen wie zum Beispiel “Produkte” und “Vertriebsgebiet”

15 Analyse nach versteckten, interessanten Strukturen und Mustern

16 Analyse von Dimensionen und Kennzahlen mit Berücksichtigung der Dimension “Zeit”

17 Vgl. Vercellis, C., BI, 2009, S. 10

18 Vgl. Vercellis, C., a.a.O., S. 9 - 11

19 Vgl. Gronau, N., ERP, 2004, S. 4 -8; Vgl. Görtz, M.,ERP-Systeme, 2007, S. 2; Vgl. Doeffinger, D., ERP Value, 2008, S. 1-2

20 Vgl. Gómez, J., Einführung in SAP, 2006, S. 33 - 35; Vgl. Jung, R., DWH-Strategie, 2000, S. 53

21 Vgl. Auth, G., Prozessorientierte Organisation, 2004, S. 101

22 Vgl. Gómez, J., a.a.O., S. 35; Vgl. Jung, R., a.a.O., S. 52; Vgl. Schütte, R., DWH Managementhandbuch, 2001, S. 125

23 Vgl. Sauer, H., Relationale Datenbanken, 2002, S. 33

24 Vgl. Gómez, J., a.a.O., S. 36; Vgl. Gómez, J., Einführung in BI, 2009, S. 93

25 Vgl. Jung, R., a.a.O., S. 52

26 Vgl. Gómez, J., a.a.o., S. 90

27 Im weiteren Verlauf mit DWH bezeichnet

28 Vgl. Finkler, F., Konzeption, 2008, S. 97

29 Vgl. Schrödl, H., BI SQL Server, 2009, S. 17

30 Vgl. Abts, D., Grundkurs WI, 2009, S. 252

31 Vgl. Auth, G.,a.a.O., S. 34

32 Vgl. Jung, R., a.a.O., S 45

33 Vgl. Goeken, M., Entwicklung, 2006, S.27

34 Vgl. Felden, C., Personalisierung, 2006, S. 62

35 Vgl. Felden, C., a.a.O., S. 63; Vgl. Tegel, T., Multidimensionale Konzepte, 2005, S. 70-74

36 Vgl. Laudon, K., WI, 2010, S. 307

37 Vgl. Petersohn, H., Data Mining, 2005, S. 47

38 Insellösungen bedeuten in diesem Zusammenhang viele einzelne Lösungen, die ohne eine Verbindung untereinander stehen

39 Vgl. Dittmar, C., Knowledge Warehouse, 2004, S. 333

40 Vgl. Knöll, H.-D., Unternehmensführung, 2006, S 96; Vgl. Kemper, H.-G., BI Arbeitsbuch, 2008, S.13; Vgl. Harrach, H., RisikoAssessments, 2010, S. 21; Vgl. Engels, Chr., Basiswissen BI, 2009, S. 141

41 Vgl. Mertens, P., Data X Strategien, 2000, S. 150

42 Vgl. Dippold, R., Datenmanagement, 2005, S. 109; Vgl. Wegener, H., Aligning business, 2007, S. 35; Vgl. Inmon, H., DW 2.0, 2008, S. 99

43 Vgl. Gómez, J., a.a.O., S. 9; Vgl. Gunnar, A., a.a.O., S. 34-39

Ende der Leseprobe aus 73 Seiten

Details

Titel
Implementierung eines zeitgemäßen Vertriebscontrollingsystems in einem mittelständischen Unternehmen
Hochschule
Private Fachhochschule Göttingen
Note
1,3
Autor
Jahr
2011
Seiten
73
Katalognummer
V188630
ISBN (eBook)
9783656123675
ISBN (Buch)
9783656135234
Dateigröße
33148 KB
Sprache
Deutsch
Schlagworte
Business Intelligence, Data Warehouse, Controlling, Berichtswesen, IBM Cognos, Vertriebscontrolling, ETL, Data Marts, Data Mining, OLAP
Arbeit zitieren
Ingo Lücker (Autor:in), 2011, Implementierung eines zeitgemäßen Vertriebscontrollingsystems in einem mittelständischen Unternehmen, München, GRIN Verlag, https://www.grin.com/document/188630

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Implementierung eines zeitgemäßen Vertriebscontrollingsystems in einem mittelständischen Unternehmen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden