Prediktiv analyse

Prediktiv analyse er et tema som har fått mye fokus i flere ulike bransjer. I tråd med at dette er et begrep som blir mer og mer vanlig, er det viktig å huske at prediktiv analyse ikke er definert som en teknologi eller teknikk. Allikevel, kan prediktiv analyse grovt deles inn i to tilnærminger, mønstergjenkjenning og simulering. Mønstergjenkjenning er den vanligste tilnærmingen, og er grunnlaget for maskinlære og kunstig intelligens. Simulering benytter en mer menneskelig vinkling til å forstå forretningsproblemer, forutse trender og anbefale optimale beslutninger. Den grunnleggende forskjellen mellom de to tilnærmingene er at mønstergjenkjenning er avhengig av korrelasjon, mens simulering er avhengig av menneskelig kunnskap om kausale forhold.

Forskjeller mellom mønstergjenkjenning og simulering

Mønstergjenkjenning er datasentrisk. Du setter sammen en mengde data med en algoritme, den finner mønstre i dataene og kartlegger fremtidige trender. Dette blir sett på som ryggraden for Data Mining, maskinlære og AI. Store datamengder er svært ønskelig, for desto større datasettet er, desto større er presisjonens nøyaktighet.

Simulering derimot er modellsentrisk. Du starter med å bruke menneskelig kunnskap om årsak og effekt, for å lage en modell av systemet der problemet ligger. Deretter kobler du dataene dine sammen med modellen for å få fremtidige prediksjoner. Til eksempel, for å forutse fremtidige salg, modellerer du de viktigste årsaksfaktorene (som for eksempel salgserfaringer, produktkvalitet, ulike markedsfaktorer) og hvordan disse forholder seg til hverandre. Desto større menneskeekspertise, desto større er presisjonens nøyaktighet.

Fordeler ved simulering

Selv om både mønstergjenkjenning og simulering kan være effektive tilnærminger til prediktiv analyse, er det tre hovedfordeler ved simuleringsmetoden.

 

1. Simulering integrerer faktorer som mangler i dataene

Ofte mangler dataene dine viktig årsaksfaktorer. Som for eksempel faktorer som tidspress, moral og omdømme. Disse kan ha en betydelig effekt på ønskede resultater, men blir sjeldent fanget opp av informasjonssystemer. Ved simulering kan alt som er kjent om de manglende faktorene inkluderes i modellen, og ukjente faktorer kan estimeres. De resulterende prediksjonene vil ta hensyn til disse faktorene og kvantifisere graden av usikkerhet.

 

2. Simulering har relativt lave datainnsamlings- og prosesskostnader

I motsetning til mønstergjenkjenning, som bygger på store mengder data av høy kvalitet, bruker simulering dataene som er tilgjengelige og supplerer den med kunnskap. Ved simulering kreves det heller ikke at all data som kan være relatert til problemet må være med, for å kunne se etter meningsfylte korrelasjoner. Årsakene til problemet er allerede bygget inn i modellen. Derfor har simulering ofte en mindre tidkrevende og kostbar datainnsamlingsprosess.

 

3. Nøyaktigheten av simuleringsprediksjoner er svært pålitelige

En av utfordringene med mønstergjenkjenning er at korrelasjonen ikke alltid reflekterer kausale forhold. Ofte med store dataanalyser, vil data inneholde korrelasjoner som kan virke som årsaker, men som faktisk ikke er det. Slike falske korrelasjoner fører til mislykkede prediksjoner. Simulering starter med ekspertforståelse av årsak og effekt, som er grunnlaget i vitenskapelig kunnskap, og som gir pålitelige resultater. Simulering benytter også en modelltesting og justeringsfase som er med på å forbedre prediktiv nøyaktighet og forbedrer vår forståelse av årsak og effekt.

Med slike klare fordeler kan du kanskje lure på hvorfor simuleringen har fått så lite oppmerksomhet under denne trendbølgen rundt prediktiv analyse. Hittil har de største tilhengere av simulering vært akademikere og spesialiserte konsulentfirmaer, som har implementert applikasjoner i et bredt spekter av bransjer. Dimensional Insight ser den prediktive styrken ved simulering og ser på muligheten for å bygge applikasjoner basert på dette.

Er du interessert i å lære mer om prediktiv analyse og simulering, last ned vår eBok om simulering her.