Tauchen Sie ein in die Welt der Natürlichen Sprachverarbeitung! Entdecken Sie modernste NLP-Rollen, die zu Ihren Fähigkeiten und Leidenschaften passen.
NLP-Jobs entdeckenWarum ist es so schwierig, traditionelles Projektmanagement auf Data-Science-Projekte anzuwenden? So sorgen Sie für ein reibungsloses Data-Science-Projektmanagement.
Eine dumme Konsequenz ist der Kobold kleiner Geister.
Ralph Waldo Emerson (1803-1882)
Data Science passt normalerweise nicht gut in Standardansätze des Projektmanagements, die in anderen Disziplinen seit langem etabliert sind. Warum ist das so?
Data-Science-Projekte beinhalten traditionell eine lange Erkundungsphase und viele Unbekannte, selbst ziemlich spät im Projekt. Dies unterscheidet sich von der traditionellen Softwareentwicklung, bei der es möglich ist, Aufgaben zu Beginn aufzuzählen und zu quantifizieren. Ein Softwareprojektmanager kann oft die Dauer und das Endergebnis des Projekts definieren, bevor eine einzige Codezeile geschrieben wurde.
Die bekanntesten traditionellen Projektmanagementansätze sind
Wasserfall – bekannt für das Gantt-Diagramm, eine Art kaskadierendes Balkendiagramm, das Aufgaben und ihre Abhängigkeiten anzeigt.
Agil – Aufgaben in Sprints von 1–2 Wochen aufgeteilt.
Kanban - Karten, die sich von links nach rechts über eine Tafel bewegen, von „Zu erledigen“ über „In Arbeit“ bis „Erledigt“ .
Es gibt auch ein datenwissenschaftlich orientiertes Projektmanagementsystem namens CRISP-DM , das eine Reihe von Projektphasen umfasst: Geschäftsverständnis , Datenverständnis , Datenaufbereitung , Modellierung , Auswertung und Bereitstellung .
Das größte Problem all dieser Ansätze ist meiner Meinung nach, dass Data Science-Projekte höchst unvorhersehbar sind und Änderungen unterliegen. Leider ist es oft nicht einmal möglich vorherzusagen, was in einem Data Science-Projekt erreicht werden kann, bis bereits erhebliche Anstrengungen unternommen wurden.
Ich würde empfehlen, sich erst nach einer einwöchigen ersten Explorationsphase für eine Projektstruktur zu entscheiden.
Dann würde ich vorschlagen, zu entscheiden, was das Unternehmen braucht:
ein eingesetztes Vorhersagemodell?
eine eigenständige Analyse?
eine vollwertige Website und API?
Der Schlüssel liegt in der Flexibilität, da sich diese Anforderungen später ändern können.
Nehmen wir ein Beispiel: ein Projekt zur Bereitstellung eines Vorhersagemodells. Gehen wir davon aus, dass die Werbespots und die Zustimmung der Stakeholder bereits vorhanden sind. Stellen Sie sich vor, ein hypothetisches Unternehmen möchte mithilfe eines Vorhersagemodells vorhersagen, welche Produkte seine Kunden kaufen werden.
Das Projekt könnte ungefähr in den folgenden Phasen ablaufen. ( Schlüsselphasen eines Data-Science-Projekts )
2–5 Tage: Das Geschäftsproblem verstehen.
2-5 Tage: Verstehen Sie die verfügbaren Daten. Sie bekommen eine Vorstellung davon, ob das Projekt überhaupt möglich ist und ob es Wochen, Monate oder Jahre dauern wird.
10-20 Tage: Erstellen Sie schnell und unkompliziert einen Prototyp. Dieser läuft möglicherweise nur auf einem Laptop, vermittelt den Stakeholdern jedoch ein qualitatives Gefühl dafür, was machbar ist.
Stakeholder-Meeting : Definieren Sie KPIs und Anforderungen, Zeitrahmen usw. Zu diesem Zeitpunkt haben Sie eine Vorstellung davon, wie lange das Projekt dauern wird – viel später, als wenn es sich um ein Projekt in der Softwareentwicklung oder im Bauwesen handeln würde.
3-6 Monate: Verfeinern Sie das Modell und finden Sie heraus, wie es mit Echtzeitdaten ausgeführt werden kann. Dazu müssen in der Regel 200 verschiedene Modelle erstellt und jedes anhand der KPIs bewertet werden. Während des gesamten Prozesses, während das Projekt und das Modell Gestalt annehmen, wird außerdem eine enge Kommunikation mit den Stakeholdern stattfinden.
3 Monate: Bereitstellung, Belastungstests, Qualitätssicherung, Sicherstellung der Integration in die Systeme des Kunden. Dies umfasst Entwickler auf der Kundenseite und kann mit den üblichen Softwareentwicklungstools verwaltet werden.
Stakeholder-Meeting zur Bewertung des Projektergebnisses, zum Abschluss des Projekts, zur Übergabe, zur Dokumentation und zu Plänen für die Wartung usw.
Abgesehen von der abschließenden Bereitstellungsphase würde ich vorschlagen, alle Phasen des Projekts relativ flexibel zu definieren.
Insbesondere wenn Sie beim ersten Versuch, eine Aufgabe zu quantifizieren, davon ausgehen, dass sie einen Monat dauern sollte, dauert sie in der Praxis aufgrund aller unbekannten Hindernisse, die wahrscheinlich auftauchen, oft zwei Monate. Überraschungen können an jedem Punkt des Projekts auftreten und alle haben den Effekt, dass die Gesamtdauer eher verlängert als verkürzt wird.
Die Kehrseite dieser Flexibilität besteht darin, dass regelmäßige Meetings, E-Mails und Kommunikation mit den Stakeholdern unerlässlich sind, um sicherzustellen, dass das Unternehmen über den Projektfortschritt auf dem Laufenden gehalten wird und die Datenwissenschaftler alles erhalten, was sie benötigen (Daten, Zugriff über Sicherheit, Zusammenarbeit mit den entsprechenden Unternehmensabteilungen usw.).
Der Schlüssel liegt im Namen: Data Science . In der Wissenschaft geht es darum, eine Hypothese zu definieren und zu testen, und Data Science ist ein iterativer Prozess des Ausprobierens, Scheiterns und Verbesserns. Versuche, sie in Projektmanagementtechniken anderer Disziplinen hineinzuzwängen, enden in Frustration und erhöhen die Wahrscheinlichkeit, dass das Projekt scheitert oder abgebrochen wird .
Ich möchte nicht vorschlagen, Agile- oder Wasserfallmethoden überhaupt nicht zu verwenden. Tatsächlich können sie besonders wichtig sein, wenn Sie ein Data Science-Team skalieren müssen. Jeder gewählte Projektmanagementansatz sollte jedoch nur als Richtlinie verwendet und nicht strikt eingehalten werden.
Wenn Sie sich für die Wasserfall-Projektmanagementphilosophie entscheiden, haben wir im Abschnitt „Ressourcen“ auf unserer Website einen im Browser integrierten Gantt-Diagrammgenerator für NLP-Projekte sowie eine Checkliste für den Start eines Data-Science-Projekts , einen Data-Science-Roadmap-Planer , eine Kalkulationstabelle für die Projektkostenplanung und ein Projektrisikotool bereitgestellt .
Tauchen Sie ein in die Welt der Natürlichen Sprachverarbeitung! Entdecken Sie modernste NLP-Rollen, die zu Ihren Fähigkeiten und Leidenschaften passen.
NLP-Jobs entdeckenGenerative KI Einführung Generative KI , ein Teilbereich der KI, verändert Branchen grundlegend und gestaltet die Zukunft. Durch die Nutzung fortschrittlicher Algorithmen kann generative KI Inhalte, Designs und Lösungen erstellen, die zuvor undenkbar waren.
Große Daten Das Aufkommen von Big Data hat ganze Branchen revolutioniert und traditionelle Geschäftsmodelle und Entscheidungsprozesse verändert. In dieser umfassenden Untersuchung gehen wir der Frage nach, was Big Data ist, welche erheblichen Auswirkungen es auf die Geschäftsstrategie hat und wie Unternehmen riesige Datenmengen nutzen können, um Innovationen voranzutreiben und sich einen Wettbewerbsvorteil zu verschaffen.
What we can do for you