Zum Newsletter anmelden

Jetzt kostenlosen Newsletter abonnieren und einmal im Monat neue Ideen, interessante Artikel, Inspirationen und viele Tipps erhalten! Wir geben Ihre Daten nicht weiter! Eine Abmeldung ist jederzeit möglich.
I agree with the Nutzungsbedingungen
 
 

Big Data und Projektmanagement – Neue Ansätze für das IT-Projektmanagement?

In der Ausgabe 3/2013 des Harvard Business Manager wird im Artikel „Projektmanagement: So lernen Sie, Daten zu lieben“ der klassische Ansatz IT-Projekte zu managen für Big Data Projekte in Frage gestellt. Der klassische Ansatz geht dabei nach dem Grundmuster vor Anforderungen zu erheben, Technologie zu spezifizieren und das IT-System im Rahmen des Projekts im geplanten Zeit-, Kosten- und  Umfangsrahmen zu entwickeln und einzuführen. Für Big Data Projekte ist dieser Ansatz jedoch nicht erfolgreich.

In einer Forschungsarbeit haben die Autoren Donald A. Marchand, Professor für Strategieumsetzung und Informationsmanagement am IMD in Lausanne und Prof.  Joe Peppard, Professor für Informationssysteme an der School of Management der britischen Cranfield University, 50 internationale Organisationen in unterschiedlichen Branchen untersucht.

Dabei haben sie einen alternativen Ansatz für das Management von Big Data- und Analytikprojekten identifiziert. 

 Zunächst muss jedoch der Hintergrund beleuchtet werden, was unter Big Data verstanden wird.

Big Data kennzeichnet dabei ein Datenaufkommen in bisher ungekanntem Ausmaß, wie es beispielsweise im Rahmen von Social Media Anwendungen, Smartphones, Videos, Audio, Fotos, Geodaten (Location data),  Sensoren (u.a. RFID) und Ambient Intelligence im Peta- und Terabytebereich anfällt.

Die bisherigen Ansätze zur wirtschaftlichen Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse sind aufgrund der schieren Menge, der Halbwertszeit, der Qualität sowie der unterschiedlichen Datencharakteristik unstrukturierter und strukturierter Informationen nicht mehr sinnvoll.

Neue Denkweisen, Konzepte, Methoden, Technologien und IT-Architekturen zur Beherrschung und Nutzung der Daten- und Informationsflut sind gefragt.

Relationale Datenbanken und Datawarehouse-Systeme sind nicht mehr in der Lage die Flut an Daten dieser Art zu beherrschen und stoßen an ihre Grenzen. Hinzu kommt der drängende Bedarf und die Nachfrage an real-time-Informationen der Anwender.

Ein unterhaltsames Erklär-Video  zum Hintergrund von Big Data finden Sie hier: 

 Neue Technologien wie Apache Hadoop (hadoop.apache.org)  werden beispielsweise von LinkedIn eingesetzt, um über 100 Milliarden persönliche Empfehlungen je Woche zu generieren. Solche Technologien müssen hochverfügbar, skalierbar und verteilte/vernetzte Rechnerkapazitäten nutzen können.

Big Data Projekte: Eine anderer Projektansatz – Leitlinien der Autoren

Big Data Projekte sind nicht mehr fein säuberlich vorausplanbar – Am Anfang weiß keiner genau welche Fragen gestellt werden müssen, um noch unbekannte Entscheidungen zu unterstützen.

Die Installation analytischer IT-Software ist vergleichsweise relativ einfach. Das Verständnis zu deren Nutzung dagegen viel schwieriger.

Anders als bei großen IT-Projekten mit definierten Zielen, strukturierten Aufgaben und detaillierten Plänen für die Umsetzung handelt es sich bei Big Data und Analytikprojekten  eher um kleine und schneller zu erledigende Initiativen.

Kleine Projekte ergeben sich aus aktuellen Problemen oder Businesschancen. Dazu werden Fragen formuliert und Hypothesen aufgestellt, die mithilfe von Experimenten validiert werden, um Zusammenhänge und Muster zu verstehen.

Um genau das zu erhalten, was Manager eigentlich mit Analytikprojekten erreichen wollen, nämlich bessere Informationen um besser entscheiden zu können, empfehlen die Autoren für Big Data Projekte eine Mischung aus Change-Management, soziologischer und ethnografischer Forschung und IT-Projekt. Als Resultat wird das Ziel steigender Umsätze erreicht.

Big Data Vorhaben reflexartig als IT-Projekt zu behandeln und moderne Datenanalyseaufgaben nach den klassischen Projektarbeitsweisen zu strukturieren funktioniert nicht. Weniger Technik, mehr Mensch ist gefordert, so die Verfasser.  

Die Autoren haben dazu fünf Leitlinien entwickelt:

1. Der Mensch als Maß aller Dinge

  • Verstehen welche Bedürfnisse Mitarbeiter bei Entscheidungen und der Suche nach Informationen haben.

2. Nur durch das Nutzen von Daten entsteht Wert

  • Fragen an die Daten stellen. Es braucht viel Wissen und Fachkompetenz, um Zusammenhänge zu erkennen. Über das Testen von Hypothesen und Aussieben von irreführenden Erklärungen zu den richtigen Schlussfolgerungen kommen.

3. In IT-Projektteams gehören Kognitions- und Verhaltensexperten

  • Das Entdecken von Wissen fördern – Auf das „I“ in IT fokussieren. Verstehen, wie andere Menschen Probleme wahrnehmen, Informationen nutzen und beim Erarbeiten von Lösungen, Ideen und Wissen Daten analysieren.

4. Auf das Lernen konzentrieren

  • Lerneffekte steigern. Zyklischer Prozess von Idee, Analyse und Entdeckung. Mit der Idee bzw. Problem oder Chance eine Theorie über bestimmte Folgen oder Ereignisse entwickeln, Hypothesen aufstellen, Daten auswählen und Experimente durchführen.  

 5. Unternehmensprobleme lösen statt Technologien einführen

  • Konventionelle IT-Projekte sind risikoavers. Alles ist darauf ausgerichtet Bedrohungen für die erfolgreiche Fertigstellung eines IT-Systems auszuschalten. Bei Big Data Projekten ist weniger Risikomanagement in diesem Sinne gefragt. Allein das Vermeiden des Risikos für das Unternehmen keine nützlichen Ergebnisse zu liefern sollte im Fokus stehen.

Fazit

Interessante Ansätze, die sicherlich ihre Berechtigung haben und nachdenklich stimmen.

Es bleiben aus der praktischen Sicht dennoch einige Fragen offen. Technologische Infrastrukturen und die Voraussetzungen zur Nutzung von Big Data müssen zunächst geschaffen werden.  Je nach Umfang des Big Data Aufkommens kann das alleine ein recht anspruchsvolles IT-Projekt begründen.

Auch wenn es sich nicht um ein Big Data Projekt handelt: Jeder der schon einmal mit der Einführung eines Datawarehouse Projekt befasst war, kennt den administrativen und technologischen Aufwand der dahinter steht. Alleine die Vielfalt der Schnittstellen, denn irgendwie müssen die Daten von den Quellen ja in technologische Systemstrukturen überführt werden um sie auswerten zu können, ist eine Herausforderung für sich. Ganz abgesehen von der Aufbereitung aufgrund mangelnder Datenqualität und die Überführung in auswertbare Strukturen.

Hinzu kommen die Abstimmungen und Verhandlungen nach den Mitbestimmungsgesetzen in den Betrieben, hier mit den Betriebs- oder Personalräten, wenn es sich bei den Datenquellen um personenbezogene Daten handelt.

Der Datenschutz wird in Big Data Projekten sicherlich eine ganz bedeutende Rolle spielen.

Interessant ist die Frage, wie ein Business Case für ein Big Data Projekt erstellt werden kann. Eine Quantifizierung des Nutzens zu Beginn des Projekts ist nach dem beschriebenen Vorgehensmodell nur schwerlich möglich.

Aus dem Vorgehensmodell werden Elemente aus der agilen Softwareentwicklungs- und Projektwelt erkennbar.

Was meinen Sie? 

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden.
Datenschutzerklärung stimme zu