Das nebenstehende Prozessmodell wurde modelliert. Inhaltlich wird hier ein Dokument entgegengenommen, das überprüft und anschließend in ein EDV-System übernommen werden soll. Wenn die Prüfung nicht erfolgreich ist, wird das Dokument abgelehnt und der Sender muss das Dokument überarbeiten und erneut einreichen. Dies geschieht hier laut Modellierer in 80 % der Prüfungen.
Gehen wir hier nun erstmal davon aus, dass der Modellierer verdeutlichen wolte, dass das Dokument in den seltensten Fällen sofort erfolgreich überprüft werden kann und daher in 4 von 5 Fällen zurück an den Sender geht. Im Anschluss daran kann das Dokument aber dann in der Regel erfolgreich überprüft werden. Es wird also von etwa 1-2 Schleifendurchgängen ausgegangen.
Schauen wir uns nun an, welche Aussage das Modell nun eigentlich trifft: In 4 von 5 Fällen geht das Dokument wie vom Modellierer vorgesehen zurück an den Sender. Nach der zweiten Prüfung gehen nun aber erneut 4 von 5 Fällen zurück an den Sender zur erneuten Überarbeitung. Dies wiederholt sich in der Theorie nun unendlich lange.
Was er hier aber tatsächlich modelliert worden ist, ist deutlich mehr als 1-2 Schleifendurchgänge, da außer acht gelassen wird, dass die Wahrscheinlichkeit auf einen erneuten Rücksprung eigentlich mit jedem Schleifendurchgang weiter sinken sollte.
=> Das Dokument geht nach der Überprüfung zurück an den Sender und dieser muss das Dokument überarbeiten und erneut einreichen. Er wird die bekannten Fehler also korrigieren und ein Dokument einreichen, was diese Fehler nicht mehr enthält. Außerdem wird er in der Regel noch sorgfältiger Arbeiten und sich beim nächsten Versuch “mehr Mühe geben”. Die Chance, dass die Prüfung erneut fehlschlägt (das also neue/unbekannte Fehler gefunden werden), sollte also viel geringer als 80 % sein.
Da die Wahrscheinlichkeit auf einen erneuten Rücksprung allerdings nicht nach jedem Schleifendurchgang sinkt, bedeutet dies, dass die Schleife deutlich öfter als erwartet ausgeführt wird. Die Chance, dass die Schleife in diesem Beispiel 10 mal ausgeführt wird, beträgt zum Beispiel 10% (20 mal 1,15%). Das scheint erstmal eine ziemlich geringe Chance zu sein, allerdings gilt diese Chance für einen Simulationslauf. Die Plattform simuliert den Prozess allerdings bis zu 100.000 mal und arbeitet mit einem über alle Läufe ermittelten Lastfaktor (Knotenbesuche insgesamt / Anzahl der Simulationsläufe * Fallzahl pro Jahr des Prozesses). Das bedeutet, dass die Schleife in 50.000 Simulationsläufen in über 5.000 davon 10 mal durchlaufen wird (in 576 Simulationsläufen 20 mal):
Anzahl Schleifendurchgänge | Chance auf diese Anzahl an Schleifendurchgängen (Wahrscheinlichkeit des Rücksprungs Anzahl Schleifendurchgänge) | Anzahl Simulationsläufe in denen die Schleife X mal durchgegangen wird (bei 50.000 Simulationsläufen) |
---|
1 | 80,00% | 40000 |
2 | 64,00% | 32000 |
3 | 51,20% | 25600 |
4 | 40,96% | 20480 |
5 | 32,77% | 16384 |
6 | 26,21% | 13107,2 |
7 | 20,97% | 10485,76 |
8 | 16,78% | 8388,608 |
9 | 13,42% | 6710,8864 |
10 | 10,74% | 5368,70912 |
Bei 50.000 Simulationsläufen werden die am Rücksprung beteiligten Aktivitäten im Durchschnitt 5 mal durchgeführt (es gibt also im Durchschnitt 5 Schleifendurchgänge). Dies hat zur Folge, dass die Aktivität in einer nachfolgenden Personalkapazitätsanalyse, deutlich mehr Kapazität binden würde, als erwartet. Dies kann natürlich genau die gewünschte Aussage des Modellierers sein, in den meisten Fällen kennt der Modellierer die Folgen allerdings nicht vollständig. Die Prüfaktivität mit 3 Minuten Bearbeitungszeit würde dann pro Jahr mit 1.500 Minuten zu Buche schlagen, anstatt der erwarteten 600 Minuten (bei ca. 2 erwarteten Schleifendurchläufen).
Eine mit jedem Schleifendurchgang reduzierende Wahrscheinlichkeit auf einen erneuten Schleifendurchgang ist allerdings nicht abbildbar, weshalb in diesen Fällen zu Alternativen Modellierungsweisen gegriffen werden sollte.