15. juni 2015 Eindhoven
Den største begivenhed indenfor process mining er uden tvivl den årlige Process Mining Camp i Eindhoven, der afholdes af Fluxicon. I år var vi ca 180 deltagere fra hele verden, mod sidste års 100 deltagere.
Jeg vil her give et indblik i de indlæg, der blev holdt på konferencen.
Leonard Studer, City of Lausanne -
What it means to study a too lengthy administrative process
Leonard Studer har arbejdet med process mining i 4 år nu. Efter hans erfaring er det mest udfordrende at få implementeret og forankret process mining i projektet.
En proces udfordrede dem i særdeleshed: byggetilladelse processen.
Processen var vanskelig grundet en kompleks lovgivning, for de administrative processer er egentligt velkendte. De har ca. 450 cases om året - 24 uger i snit i gennemførsel.
Det er temmelig lang sagsbehandlingstid, men hvorfor tager det så lang tid?
Målet er at færdigøre byggetilladelser på 14 dage. For at nå det mål iværksatte de et procesoptimerings projekt.
De startede med en klassisk business process analysis og benyttede process mining som et supplement og sammenlignede resultaterne. Process mining sparede virkeligt meget tid.
I projektet blev 2/3 af tiden brugt til at få data ud og få dem vasket til et brugbart format. Det skyldes blandt andet en del gamle, udokumenterede systemer - bla. et 15 år gammelt sagsbehandlingssystem hvor aktiviteterne er registreret i fritekst, hvilket naturligvis var et stort problem- Ligesom der var mange måder at angive en dato på og angive opfølgningsstatus.
De benyttede SQL scripts til at få data ud af systemerne, og lavede derefter et quality assessment af data og checkede dem op i mod kriterierne:
Mangler data, ukorrekte data, upræcise data, irrelevante data - hvorefter de blev mapped til case, event, etc
For at imødekomme problemerne med fritekst information omkring proces data lavede de text mining og brugte text mining (open source) værktøjet Open Refine og egen konstruerede Python Scripts. Derefter pågik der en større opgave med at vaske data, importere CSV fil og lægge regular expressions ind over. Det tog 2 ugers hårdt arbejde at samle data.
Som eksempel på omfanget af fritekst problemet kan nævnes at 2400 forskellige (fritekst) aktivitets navne blev reduceret til 24.
De læringer de tog med sig fra projektet var:
- Man er nødt til at kende sine værktøjer rigtig godt - både deres anvendelsesmuligheder, begrænsninger og antagelser.
- Process Mining værktøjet Disco fra Fluxicon er meget brugervenligt.
- De kender nu makro overblikket af processen og fik det overblik langt hurtigere med process mining end med den traditionelle BPM tilgang. Med den traditionelle BPM tilgang foretog de 33 interviews til at lave proces overblikket
- Når de sammenlignede proces overblikket, skabt med den traditionelle BPM tilgang, med process overblikket, skabt via process mining, identificerede de proces trin, som ikke blev afdækket gennem interviews.
- Process mining gav generelt et bedre og mere præcist overblik - for eksempel fandt process mining tilgangen 2 meget vigtige varianter af processens gennemførsel - brugerne ser ikke varianterne, og derfor kommer de ikke frem gennem interviews.
- Process mining opgaven gik lidt langsomt pga data kvalitet: blandt andet var ikke alle cases komplette.
- Samlet set endte de med ca 50 forslag til procesforbedringer.
- Projektet tog 3 måneder alt ialt, hvilket var meget hurtigt. Forretningen var meget tilfredse med analysen og resultatet.
Willy van der Schoot, Atos - How To Manage Your Process Mining Analysis
Willy van der Schoot gennemgik, hvordan hun styrer process mining analyser - i det konkrete eksempel med udgangspunkt i standard processer for incident processer, problem management, change management - de kommer alle fra ITIL standard frameworket, men Willy oplever, at kunderne ofte gerne vil have tilpasset dem til deres behov.
Med udgangspunkt i incident management processen gennemgik Willy nogle eksempler på nogle af deres avancerede analyser på incidents management processen.
Der er ofte først en opgave omkring at skulle klargøre data. Det er en god ide også at starte med en business case for at holde fokus på gevinsterne.
Oplæggene der udarbejdes i forbindelse med fastlæggelse af målene med analysen indeholder ofte en ideel process og et real life process eksempel i samme (præsentations)slide. Dette kan naturligvis gøres som et fladt, manuelt diagram overblik fx i powerpoint, men i process mining værktøjer får man også volume og lead times som den store fordel udover forskellene.
Dernæst redegjorde Willy hvordan hun holdt styr på analyse resultater, projekter, datasæt og analyser - blandt andet ved brug af "multible projects" i process mining værktøjet Disco.
Udover redegørelsen af tilgangen til process mining projekter kom Willy ind på nogle af de mere avancerede teknikker, hun benytter sig af i værktøjet. For eksempel:
- Sliders som filtrerer de cases ud, der ikke optræder særligt ofte.
- Ved dataload grupperer hun ofte kolonner i en samlet aggregeret kolonne, fx column- Activity-Type - og filtrerer derefter på denne i værktøjet.
- Socialt netværk, hvor processen vendes om med udgangspunkt i flowet mellem personer eller afdelinger er stærkt til at vise hvordan de forskellige sager flyder rundt mellem afdelinger, teams eller personer.
Dataklargørelse kan være en udfordring. Nogle af de typiske (og klassiske) udfordringer med data klargøring der blev nævnt var:
- Tidsstempler er kun implicit tilgængelige
- Redundante tidsstempler
- kombinationen af aktiviteter og statusser
- Information ligger i fri-tekst felter
- Forskellige database tabeller med forskellige dato formater
- Forskellige database tabeller med indhold, der ikke matcher hinanden
- Tidsstempler fra forskellige tidszoner og i forskellige formater
- I databasen kan en record skifte fra A til B og tidsstempler viser hvornår det sker (dette er nødt til at blive to forskellige aktiviteter i process mining).
- Akviviteter med meget lille tid imellem dem er måske kun een overordnet aktivitet.
- Datakvaliteten kan være svag
Process mining - hvor passer det ind i organisationen:
Ofte bliver mindsættet, hvad du først præsenterer !! og påvirker de videre iterative analyser med forretningen.
Til visualisering af mulighederne kan det være en ide at lave et "fake" dataset af den ideelle proces og lave en randomiseret data-log til at lave sammenligning - så kan man se i værktøjet hvordan processen burde have været og den kan sammenlignes med den virkelige model.
Joris Keizers - Leveraging Human Process Knowledge Via Process Mining
Joris kommer fra en fremstillingsvirksomhed. Traditionelt set har de optimeret produktionen med Six Sigma metoden og DMAIC modellen som den omsluttende proces tilgang.
I forbindelse med optimeringsprojekter benyttede de process mining i forbindelse med deres Six Sigma projekter, og har mange gode erfaringer med det.
Process mining ser på de proces trin, der er understøttet af IT og Joris nævner da også, at man skal huske at hele lead tiden kan indebære manuelle aktiviteter - fx fra fax maskine til ordren er indtastet i systemet.
Udover process mining værktøjer brugte de statistikværktøjet Minitab i forbindelse med Six Sigma projekter.
Ambitionen i det projekt, der blev refereret til som eksempel, var at leadtime (gennemløbstiden) skulle gå fra 4 til 2 uger -> efter analyse med process mining kan de nu honorere en leadtime på 1-2 uger.
I old-school Sig Sigma analyse med minitab fik man efter en rum tid statistisk overblik, men kun i plot charts format, der ikke siger noget om, hvad man aktivt kan gøre for at reducere lead tiden.
Med process mining kunne de straks identificere high traffic process steps, som der skal være allokeret nok ressourcer til for at undgå flaskehalse.
Med process mining kunne de holde visuelle workshops med proces ejere og få input som:
- Den daily push -> det kan vi gøre smartere ved at...
- Flaskehalsen vi ser der, kan fjernes for kun få euros
- Hvis vi frigør kapacity kan vi være mere fleksible
- Subcontractors gør deres push 1 gang om ugen, de bør lave daily pushes
De benyttede process mining værktøj til at:
- Checke impact i Control fasen af DMAIC
- Validering af events i Measure fasen af DMAIC
- Mere fokuserede analyser i Analyse fasen af DMAIC og brug af process mining til explorative analyser
Mieke Jans - Step by step - From data to event log
Det er ikke altid data ligger klar til at blive trukket direkte ud i et format, der egner sig til process mining. Mieke Jans gennemgik hvordan hun går struktureret frem, når hun skaber sig et overblik over hvilke data, der skal trækkes ud af systemerne.
Hvis man skal gå fra en relationel database til et eventlog udtræk, er det en god ide altid at starte med at definere formålet - er formålet for det videre forløb fx effektivitet (optimering) eller check af overensstemmelse?
Mieke beskrev konceptet "process corner stone”, og om hvordan man bør starte med at tale med både process ejer og en IT person i et og samme møde. Spørgsmål som "Hvilke hoved steps har I, i jeres proces?” og "Hvor er data gemt, som vi taler om?” bør belyses tidligt i processen.
Der er gode chancer for at aktiviteter er relateret til transaktioner på dokumenter.
Disse dokumenter skal først identificeres. For hver mulig aktivitet kan man spørge: Hvilke dokumenter er berørt af dette dokument? Dernæst; “I hvilke tabeller finder vi de cornerstone tidsstempler?”.
Næste Step: Identificer tabel relationerne af nøgle tabeller -> dette munder ud i et relationelt db diagram. Derefter er næste skridt i relations diagrammet at sætte kardinaliteter på - og især være opmærksom på parent-child og many-to-many relationerne.
Der mangler dog muligvis mellemtabeller for at danne alle disse links.
Man ender jo så nok ud med et logisk diagram, der kan være forskelligt for det fysiske diagram.
Endeligt skal der vælges en process instans, der skal være omdrejningspunktet for cases.
Hertil er der nogle spørgsmål, der skal stilles:
- Skal det være med udgangspunkt i start? middle? eller end document
- Header or line level?
Dette mappes op i mod de overordnede mål med analysen, hvorefter aktiviteterne kan identificeres.
Essencen er, at der er nødt til at være en vis gennemarbejdet struktur for at kunne gennemskue hvordan data trækkes korrekt ud af ikke-banale system designs.
Bart van Acker - Process Analysis in healthcare with process mining
På hospitalet manglede de information om volume og effektivitet omkring processerne.
De har ikke et overblik over deres processer. Ofte er sundhedsprocesser mere komplekse end forventet.
De bruger ofte lean, hvor de mapper deres processer - men dette er baseret på erfaringer, ikke på facts. Derfor har de eksperimenteret med process mining, og med process mining kan de nu se den rigtige process.
Interessante input omkring data kilder:
- Der er ofte mangler. De er ikke “ready to use”
- Der kan for eksempel mangle tidsstempler
- Der kan være behov for data vask og data aggregeringer
Volume og gennemløbstider er ofte det mest interessante. Med process mining er disse informationer tilgængelige, det er de ikke i de sædvanlige excel analyser.
Added value fra process mining:
Visualisering af processen, det er baseret på facts, information om gennemløbstid og volume er instantly tilgængelige.
Edmar Kok - Using Process Mining in an event-driven environment
I et event-drevet miljø genereres der ufatteligt mange events. Så hvordan får man noget fornuftigt ud af dem?
I Disco lavede de recipies for hver KPI for at analysere dem dybere.
Gennemgangen var en typisk analyse af events og sammenhænge. En interessant vinkel var, at de erfarede, at de fleste mente at det er en IT process de kigger på (det mener forretningen, da den er stort set automatiseret), mens IT mente det var en forretningsproces.
Anne Rozinat, Fluxicon - Process Mining Metrics
Sidste indlæg var fra co-founder af Fluxicon, Anne Rozinat. Omdrejningspunktet var målinger i forbindelse med process mining analyser, under titlen:
Hvordan måler vi tingene rigtigt?
Anne påpegede, hvordan process mining analyse resultater kan relatere til DMAIC modellen - Analyse kan fx være As-Is modellen hvor Control er To-be modellen.
"you get what you measure”,
siges der. Der er nok lidt sandhed over det:
- Folk bliver påvirket af, hvad de måles på
- Fx lukke sager for at optimere egen KPI - kunden kan så ringe ind igen og give informationerne påny og åbne en ny sag.
Lidt om målinger:
En måling skal være:
- Valid
- Reproducerbar
- Stabil
For meget fokus på gennemsnit i analyser, kan i nogle tilfælde give forkerte forkolkninger - ekstreme tilfælde slår fx igennem. Derfor er det relevant også at se på medianen.
Typiske process mining målinger:
- Antallet af steps for at gennemføre processen
- Varianter af processen
- Repetitioner
- Varighed / gennemløbstid
- Vente tid
- Værdiskabende og ikke-værdiskabende aktiviteter
- Overensstemmelse check
- Organisatorisk overblik
- Workload over tid
- Ikke-benyttede forløb
Det er vigtigt at huske, at varianter skal kobles op på en ratio i forhold til antallet af cases for at give et sammenligneligt billede. Dette kan for eksempel illustreres med formlen Variability i %. For eksempel:
I en analyse har vi 20 forløb i alt, som alle er unikke forløb.
Variability i % bliver derfor: 20/20 * 100 = 100%
Havde man nu i stedet for 20 cases i alt fordelt på 2 forskellige varianter, ville vararibility i % være: 2/20 *100 = 10%