Rechnerische Grundlagen der stellenbezogene Analysen

Auf dieser Seite wird die Berechnungsgrundlage für die beiden stellenbezogenen Analysen https://picture.atlassian.net/wiki/spaces/pppdoc320/pages/579272837 und https://picture.atlassian.net/wiki/spaces/pppdoc320/pages/579272828 beschrieben. Die Grundlage hierfür bildet der stellenbezogene jährliche Kapazitätsbedarf für die Ausführung bestimmter Aktivitäten (bzw. Bausteine). Hierbei wird auch beschrieben wie sich die Lastfaktoren jeweils in BPMN- bzw. Classic-Modellen zusammensetzen.

Berechnungsgrundlage der Analysen

Die rechnerische Grundlage der beiden stellenbezogenen Analysen bildet die durchschnittliche Gesamtzeit pro Jahr, die eine Stelle für die Ausführung einer als Baustein abgebildeten Aktivität benötigt. Berechnet wird diese auf Basis der folgenden Werte:

Durschschnittliche Gesamtzeit pro Jahr = Lastfaktor für den Baustein x Bearbeitungszeit des Bausteins x Anteil der Stelle an der Bearbeitungszeit des Bausteins

Ist die Bearbeitungszeit nicht gepflegt, wird mit dem Faktor 0 Minuten gerechnet.

Aktivitäten mit mehr als einer verantwortlichen Stelle:
Einem Baustein können mehrere Stellen zugeordnet sein. In diesem Fall wird pro Stelle eine Gesamtzeit berechnet, wobei die Bearbeitungszeit mit dem Anteil der Stelle an der Bearbeitungszeit des Bausteins gewichtet wird.

Diese können Sie in der Modellierung an der jeweiligen zugeordneten Stelle per Klick auf das Stift-Symbol als %-Wert hinterlegen. Wird kein expliziter Wert angegeben, wird mit einem Anteil von 100% gerechnet.

Lastfaktoren in Classic-Modellen

Der Lastfaktor in Classic-Modellen wird durch die folgende Formel ermittelt:

Lastfaktor eines Bausteins = Fallzahl Teilprozess pro Jahr x Eintrittswahrscheinlichkeit der Variante x Eintrittswahrscheinlichkeit des Bausteins

Bei der obigen Berechnung ist zu beachten, dass diese keine Rücksprünge berücksichtigt. Liegen fachlich Rücksprünge / Rückläufer vor, so sind diese manuell in die Teilprozess-Fallzahl oder die Eintrittswahrscheinlichkeiten der Bausteine einzukalkulieren.

Lastfaktoren in BPMN-Modellen

Der Lastfaktor in BPMN-Modellen wird durch die durchschnittliche Ausführungsanzahl einer Aktivität pro Jahr gebildet. Diese wird unter durch die dynamische Analyse des Prozessablaufs ermittelt.

Technische Arbeitsweise der Analyse zur Ermittlung der Lastfaktoren

Bei der Analyse werden die Lastfaktoren ermittelt, indem die durchschnittliche Ausführungshäufigkeit einer Aktivität (bzw. eines Bausteins) pro Jahr ermittelt wird. Diese wird bestimmt, indem die Prozessplattform für den zu analysierenden Prozess unter Berücksichtigung der BPMN-Schaltlogik ausgehend vom Startereignis die verschiedenen möglichen Prozesspfade betrachtet und die jeweilige Ausführungshäufigkeit der Aktivitäten ermittelt. Zusammen mit den Eintrittswahrscheinlichkeiten der Prozesspfade können die durchschnittlichen Ausführungshäufigkeiten bezogen auf eine Prozessausführung errechnet werden. Die Prozessplattform multipliziert die o.g. Häufigkeiten mit der Fallzahl des Prozesses um so schlussendlich die durchschnittlichen Ausführungshäufigkeiten pro Jahr der Aktivitäten zu berechnen.

Sollte ein Prozessmodell Rücksprünge enthalten, ist unter Umständen keine exakte Analyse möglich (vgl. https://picture.atlassian.net/wiki/spaces/pppdoc320/pages/3109453835 ). Die Prozessplattform stellt in diesem Fall jedoch sicher, dass die Genauigkeit sechs Nachkommastellen beträgt. In der Praxis verlieren solche Analyse-Ergebnisse damit nicht an Aussagekraft. Um sicherzustellen, dass die Prozessplattform Rücksprünge ausreichend genau analysieren kann, sollten Sie bei der Modellierung Rücksprünge mit einer Wahrscheinlichkeit von über 80% bei der Modellierung vermeiden. Analysieren Sie ein Modell, dass einen oder mehrere Rücksprünge mit deutlich mehr als 80% Wahrscheinlichkeit enthält, bricht die Analyse mit einer entsprechenden Fehlermeldung ab. (Dies stellt eine Schutzmaßnahme zur Vermeidung einer Überlast der Prozessplattform-Webanwendung dar, da ein “Nachverfolgen” aller Rücksprung-Pfade bis zur Erreichung der o.g. Genauigkeitsgrenze andernfalls u.U. zu einem enormen Verbrauch an Speicher und Rechenzeit führen würde.)