www.nkrf.no » Kommunerevisoren.no » 2017 » Nr. 6

Søk

Forsidebilde:
Shutterstock.com

NKRF
Munkedamsveien 3B
Postboks 1417 Vika
0115 Oslo

Tlf: +47 23 23 97 00

post@nkrf.no

Hopp over seksjon - Til hovedinnhold - Topp

Maskinlæring, automatisering og algoritmer - det er nå det skjer

Jan Roar Beckstrøm, avdelingsdirektør, Riksrevisjonen og prosjektleder for «Riksrevisjonens Datasenter»

Robotene kommer, sies det. Og ja, roboter, eller mer generelt maskiner som i en viss forstand kan lære av hva de har gjort tidligere, vil relativt raskt komme til å ta over en del oppgaver som i dag gjøres manuelt av revisorer.

Det skjer i og for seg allerede. Samtidig kan det være vanskelig å få tak i hva dette helt konkret handler om. Det er lett å ha luftige tanker om «utviklingen framover», men hva er det som skjer akkurat nå? Det er dette jeg vil si litt om i denne artikkelen. (Og for ordens skyld, det er ikke slik at alle revisorer vil bli erstattet av maskiner, i alle fall ikke på kort sikt. Bare så det er sagt.)

Maskinlæring - ikke særlig mystisk

Men altså: Mye av revisjonsarbeidet handler i bunn og grunn om informasjonshåndtering, i form av innhenting, tilrettelegging, vasking og analyse av data. Dette er noenlunde likt om det så gjelder regnskapsdata i finansiell revisjon eller intervjudata i forvaltningsrevisjon. Det som skjer nå er at teknologi knyttet særlig til maskinlæring og automatisering er blitt vesentlig enklere og billigere å ta i bruk, noe som blant annet gir helt nye muligheter knyttet til nettopp håndtering av informasjon.

Det er på sett og vis bare å innse. Særlig er det grunn til å tro at mye av tradisjonell finansiell revisjon vil kunne automatiseres, blant annet ved hjelp av teknologi for maskinlæring.

Maskiner vil i første omgang kunne brukes til å automatisere mye av det som i dag er manuelle (og kjedelige) rutineoppgaver knyttet til datahåndtering. Og når ny og billig teknologi kan hjelpe oss med slike oppgaver, så vil det bli tatt i bruk. Enten av oss som offentlige revisorer, eller av noen andre. Det er på sett og vis bare å innse. Særlig er det grunn til å tro at mye av tradisjonell finansiell revisjon vil kunne automatiseres, blant annet ved hjelp av teknologi for maskinlæring. Grunnen til dette er rimelig enkel. Litt forenklet kan man si at arbeid som handler om

  • å behandle strukturert informasjon som finnes i elektronisk form (les: tall)
  • der handlingene man gjør er noenlunde standardiserte
  • og arbeidet er noenlunde likt fra en periode til neste periode

egner seg til automatisering. Finansiell revisjon bør således være en god kandidat, på samme måte som veldig mye av arbeidet innen bank og forsikring er i ferd med å bli automatisert. Og igjen, det er viktig å forstå at dette er noe som skjer nå, det er ikke noe som kanskje kommer i en fjern framtid. Da gjelder det å være forberedt.

Så hva snakker vi om, mer konkret? Et par enkle eksempler: Om man har 1 million transaksjoner (f.eks. utbetalinger fra NAV) og man ønsker å finne de som det kan være grunn til å se nærmere på - hva gjør man? Trekker et tilfeldig eller risikobasert utvalg med utgangpunkt i ISA 530[1]/ISSAI 1530[2]? Tja, hva om man i stedet enkelt kunne analysere og klassifisere alle transaksjonene ut fra all den informasjon vi har om transaksjonene, og så trekke ut dem man bør se nærmere på? Maskinlæringsalgoritmer kan hjelpe oss med slike ting.

Jan Roar Beckstrøm er avdelingsdirektør i Riksrevisjonen og prosjektleder for automatisering og data science i Riksrevisjonen. Han har i en årrekke vært seksjonsleder for metodeseksjonen for forvaltningsrevisjon og er chair for INTOSAIs Performance Audit Subcommittee. Av utdanning er han sosiolog og har en MBA i offentlig revisjon fra NHH.

Et annet eksempel: Sett at du har en større kommune, men en lang rekke leverandører, og noen tusen sider med kontraktsdokumenter knyttet til leveransene. Hva om man kunne få en maskin til å lese alle disse dokumentene og automatisk identifisere begrepsbruk og setninger som er problematiske sammenlignet med anskaffelsesregelverket? Her er vi inne på området maskinell tekstanalyse og det som normalt blir omtalt som Natural Language Processing (NLP).

Så hva er maskinlæring? Vel, det er egentlig ikke så veldig mystisk. Det handler i stor grad om å bruke rimelig velkjente statistiske teknikker, som eksempelvis ulike former for regresjonsanalyse, for å bygge algoritmer som understøtter og effektiviserer revisjonen. Algoritmer er egentlig bare en oppskrift for hvordan noe skal gjøres og som er forståelig for en datamaskin. (Så har maskinlæringsalgoritmer ofte fancy navn som «Support Vector Machine», og «Naïve Bayes», men det er ingen grunn til panikk. Har man litt peiling på statistisk analyse, så er ikke slike ting veldig vanskelig å forstå.) Algoritmene er videre typisk konstruert slik at maskinen kan lære av det den har gjort tidligere. Dette er heller ikke veldig mystisk. Det handler i stor grad om prediksjon, som bare er et annet ord for å forutsi noe. En måte å gjøre det på (veldig forenklet) er at man putter inn relevante inputvariabler i en maskin, og så prøver maskinen å forutsi utfallet med utgangspunkt i en modell. Dette skjer typisk i flere runder. Når vi vet hvor godt maskinen treffer i runde 1, så kan vi putte inn denne informasjonen i neste runde, og den har nå et bedre grunnlag for å treffe noenlunde godt. I runde 2 «gjetter» således maskinen på grunnlag av hva den «lærte» i runde 1, noe som skal/bør gi en bedre prediksjon. I andre tilfeller kan vi ha informasjon om både inputvariabler og utfall. I slike tilfeller kan vi bruke dette datasettet til å trene maskinen til å predikere riktig utfall i et annet datasett. Slik «trening» av en datamaskin er også en form for maskinlæring.

En reell kompetanseutfordring

Maskinlæring, automatisering, algoritmer: Hva betyr dette for hvilken type kompetanse man trenger i en revisjonsvirksomhet? Vel, noe av det første som må skje er at man må bygge forståelse. Vi må forstå hva denne typen teknologi kan hjelpe oss med, forstå hva som muligens kan automatiseres, og vite litt om hva maskinlæring og algoritmer er for noe. For å bygge denne forståelsen må man nødvendigvis starte med den kompetansen man sitter på i dag. Og det er håp. Det er for eksempel mange som jobber i offentlig revisjon i dag som har rimelig gode kunnskaper om statistisk analyse. Slike folk vil relativt lett kunne utvide horisonten til å inkludere eksempelvis maskinlæringsalgoritmer. Det er på sett og vis bare å sette i gang. Man kan jo begynne med å google «audit automation» eller «machine learning in audit». Det er ikke verre enn det. Har man et ønske om å lære noe nytt, litt vilje og en viss basiskunnskap, så er egentlig grunnlaget rimelig bra. Så er det dessverre slik at det normalt krever en viss programmeringskompetanse om man skal jobbe med maskinlæring og automatisering. Her er det også heldigvis håp. Særlig innen forvaltningsrevisjon er det mange med en samfunnsvitenskapelig mastergrad, og de fleste masterstudenter innen samfunnsvitenskap lærer nå å programmere statistiske analyser i programmeringsspråket R. Heldigvis for oss er R også et av de mest brukte verktøyene for å lage maskinlæringsalgoritmer, du kan bruke det til å lage løsninger som automatiserer prosesser, visualisering og en hel del andre ting som kan gi både billigere og bedre revisjon.

Det er på sett og vis bare å sette i gang. Man kan jo begynne med å google «audit automation» eller «machine learning in audit».

Samtidig, det holder ikke bare å bygge kompetanse hos den jevne revisor. Det er helt avgjørende at ledere rundt omkring forstår hva som nå skjer, og forstår at det vi har av kompetanse i dag ikke er tilstrekkelig i morgen. Ledere som ikke i stand til å erkjenne hva den teknologiske utviklingen betyr for oss og hvilken betydning den får, vil heller ikke være i stand til å ta fornuftige beslutninger for fremtiden. Et åpenbart eksempel på beslutninger hvor dette har betydning er knyttet til ansettelser og hvilken kompetanse som etterspørres. Om de som ansetter ikke er tilstrekkelig oppdatert så kan det rimelig raskt føre til et kompetansegap, mellom hva vi har og hva vi trenger. Dog, jeg tror absolutt vi skal få dette til. De jeg kjenner av ledere rundt omkring i offentlig revisjon er høyst oppegående og dyktige ledere som vil ta dette på alvor. Jeg håper i alle fall at alle skjønner hvor viktig kompetansespørsmålet er i dette bildet.

Så, hva gjør vi i Riksrevisjonen?

I Riksrevisjonen har vi som en start etablert et utviklingsprosjekt kalt «Riksrevisjonens Datasenter». Foreløpig er dette et lite prosjekt der formålet først og fremst er å lage IT-løsninger som kan automatisere og effektivisere revisjonen, og hjelpe revisorene med å ta i bruk nye metoder for innsamling og analyse av data. Når man snakker om IT-løsninger er det kanskje naturlig å tenke på store, tunge systemer som koster millioner å utvikle. Det er ikke vårt utgangspunkt i det hele tatt. Prosjekt Datasenter handler mye om mikrotjenester som kan fikse ting folk sliter med, som kan automatisere manuelle prosesser, og som kan gi bedre revisjonskvalitet til lavere pris. Et av våre motto (vi har flere) er således «Vi automatiserer kjedelige ting, så du får bedre tid til spennende ting». Dette er noe av kjernen i vår tilnærming. Vi skal først og fremst hjelpe folk.

Et av våre motto (vi har flere) er således «Vi automatiserer kjedelige ting, så du får bedre tid til spennende ting».

Jeg skal gi noen eksempler på hva vi jobber med. Noe av det første vi gjorde var å lage en text mining webapp for våre egne rapporter. Du kan med denne appen søke etter bestemte ord eller uttrykk, og få ut alle avsnitt i alle rapporter som inneholder det du søkte etter. For eksempel, om du vil ha ut

  • alle avsnitt
  • i alle forvaltningsrevisjonsrapporter
  • som inneholder ordet «økonomiregelverket»
  • for de siste fem år

… så er det to tastetrykk unna. Egentlig enkle greier, men veldig greit om noen eksempelvis skulle lure på hva vi har skrevet om «fisk» de siste fem år. Nå er det mulig å finne dette i løpet av sekunder. (Denne søke-appen er for øvrig programmert i R, programmeringsspråket som er nevnt over).

Noe annet av det vi jobber med er å tilrettelegge regnskapsdata på en bedre måte. Tidligere har dette typisk vært gjort av den enkelte revisor gjennom en lang rekke separate uttrekk. Nå vil vi sørge for at revisor får ferdig tilrettelagte data som gjør at man slippe uttrekksjobben og som gjør det mye enklere å sammenligne på tvers av virksomheter og perioder. Dette delprosjektet er viktig ettersom stikkordet nettopp er tilrettelegging. I en verden som flyter over at data, dataformater og datakilder, og der maskiner kanskje skal ta over en del rutineoppgaver, så blir det veldig viktig å ha orden i sysakene. Det er et vanlig problem at man sitter på mye data samtidig som data ofte ikke er i et format eller på en form som er egnet for analyse. Og da blir det fort til at man bruker mye tid på å sitte med Excel, SPSS eller lignende for å få orden på datamaterialet. Det er således ikke sikkert det er effektivt at hver enkelt revisor skal sitte og slite med datavasking i Excel. Kanskje skal man ha egne folk som jobber med vasking, tilgjengeliggjøring og tilrettelegging av data? Større selskaper som sitter på mye data har begynt å ansette folk med jobbtitler som «data steward» og «datakurator», folk som kun jobber med datahåndtering. Det er ikke sikkert alle offentlige revisjonsenheter kommer til å ansette en datakurator med det første, men jeg tipper at det ikke blir veldig lenge før vi har en på plass i Riksrevisjonen.

Formålet er på litt sikt blant annet å kunne teste hele transaksjonsklasser automatisk, og avskaffe så mye som mulig av det revisor gjør av mer rutinemessige kontrollhandlinger.

Et tredje eksempel på hva vi jobber med er nettopp å teste maskinlæringsalgoritmer som nevnt over, særlig for finansiell revisjon. Formålet er på litt sikt blant annet å kunne teste hele transaksjonsklasser automatisk, og avskaffe så mye som mulig av det revisor gjør av mer rutinemessige kontrollhandlinger. Slike analyser egner seg også godt til visuelle framstillinger, der man kan få ut fine figurer over hvilke transaksjoner som fremstår som uvanlige. Slike ting kan eksempelvis være nyttige i kommunikasjonen med revidert virksomhet.

Et fjerde eksempel er knyttet til kontroll av avstemminger. Dette er blant annet en viktig oppgave i revisjonen av det overordnede statsregnskapet, der tallene i de enkelte virksomhetsregnskapene nødvendigvis må være de samme som går inn i statsregnskapet. I praksis er dette en oppgave som går ut på å sammenligne tall fra ulike kilder. I dag gjøres denne jobben stort sett manuelt. Planen er å automatisere denne sammenligningen. Det bør være relativt greit å få til ettersom de relevante regnskapsdataene nødvendigvis finnes elektronisk. Det er bare snakk om å lage de nødvendige koblingene mellom datasettene og få de samlede tallene inn i Excel. Enkelt og greit.

Et siste eksempel på hva vi jobber med er knyttet til nye former for datainnhenting, i form av automatisk høsting av informasjon fra internett. Dette er også kjent som webscraping. For å illustrere, og rent hypotetisk: Sett at vi har en forvaltningsrevisjon rettet mot helseforetakene som ønsker å se på hvordan et bestemt tema er behandlet av styrene i de ulike helseforetakene. Alle sakspapirer til styremøtene i helseforetakene ligger åpent tilgjengelig på nett. Imidlertid er det ca. 20 helseforetak og således 20 forskjellige nettsider å hente dokumenter fra. Videre er det en rekke styremøter og mange dokumenter til hvert styremøte. Om du skal samle inn dette manuelt så må du gå inn på hvert enkelt helseforetak sin hjemmeside og laste ned hvert enkelt dokument. En veldig tidkrevende jobb. Det går imidlertid an å skrive en liten programsnutt (for eksempel i programmeringsspråket R) som laster ned alle dokumentene samlet, fra alle relevante nettsider, og som legger det pent i en mappe på datamaskinen din. For en som har riktig programmeringskompetanse tar det ikke mer enn en times tid å lage et program som fikser dette.

For en som har riktig programmeringskompetanse tar det ikke mer enn en times tid å lage et program som fikser dette.

Som disse eksemplene indikerer har vi i Riksrevisjonen akkurat begynt å smake på dette med automatisering og maskinlæring. Det vi har gjort så langt er relativt enkle greier og som sagt en forsiktig start. Det som likevel er sikkert er at dette ikke er å anse som et lite og morsomt prøveprosjekt, som snart blir lagt ned slik at vi kan fortsette som før. Hva som kommer til å skje framover er ikke godt å si, men en ting som er helt sikkert er at vi ikke kan fortsette som før. Så kan man selvsagt bli bekymret over denne utviklingen, og lure på om vi alle snart blir arbeidsledige. Det tror jeg ikke kommer til å skje. Jeg tror tvert imot at jobben som revisor kan bli enda morsommere, med mindre vekt på rutinearbeid og mer vekt å levere analyser og innsikt. Det vil i så fall være bare bra.


Noter:

[1] ISA 530 Stikkprøver i revisjon

[2] ISSAI 1530 - Practice Note to ISA 530


Kommunerevisoren nr. 6/2017 - 72. årg.

Til toppen av siden

Topp