Fra produkt til plattform – når verdien av data øker

I digital innovasjon er data ofte den eneste og viktigste råvaren. Det er data som forer Teslas kjøreopplevelse og utvikling, Amazon’s Alexa stemmeassistent, og Google’s søkemotor. Det er tilgang på data om oss forbrukere som gir Facebook en forretningsmodell, som dreier GE fra et industriselskap til et prediksjonsselskap og som gjør Norgesgruppen i stand til å rette annonser mot oss for produkter vi ikke trodde vi trengte.

Prediksjon er sentral for alle disse nye forretningsmodellene. Store mengder ustrukturerte data gjør oss i stand til å finne mønstre som kan brukes til å predikere fremtidig adferd. Et eksempel er hvordan GE brukte sine data om sine industrielle produkter til å forbedre kundenes opplevelser og maskinenes ytelse. Et annet er Telenor som med å analysere brukerdata kunne predikere spredningen av dengufeber i Pakistan. Et tredje er hvordan data blir brukt til å lage bedre mobile løsninger for mennesker med mentale problemer. Trenden vi observerer er rimelig klar – selskapers fokus går fra produkt til plattform.

Med andre ord er det ikke bilen Tesla selger. Det er kjøreopplevelsen. Det er ikke et konkret søkeverktøy Google selger. Det er prediksjon om hva vi egentlig er ute etter basert på noen få ord vi plasserer i søkefeltet. Og det er ikke mikrobølgeovnen til Amazon vi kjøper. Nei, vi kjøper et system som gjør hverdagen enklere for oss.

I en slik overgang fra produkt til plattform er verdien av plattformen veldig viktig. Og den er en funksjon av datamengden. Men på en annen måte enn vi først kanskje tenker oss.

For data har alltid vært viktig i prediksjon. Alle som har jobbet med regresjonsanalyser eller andre statistiske teknikker vet at vi kan stole mer på resultatene dersom vi har større datamengde sammenliknet med tilfeller der vi har få observasjoner.

I klassisk prediksjon bidrar de 10 første observasjonene til en vesentlig forbedring i prediksjon. Men dersom vi legger på 10 observasjoner på toppen av 100 000 eksisterende observasjoner, vil effekten av de 10 siste være liten sammenliknet med de 10 første. Vi sier ofte at data har avtagende grensenytte. Altså er det lite å hente på å skaffe 40 000 nye observasjoner dersom vi har 400 000 fra før. Dette fenomenet med avtagende grensenytte er typisk for alle typer råvarer og input i produksjon. I figuren under er dette forholdet tegnet inn med en grønn linje.

Men i en plattformlogikk er det andre forhold som kommer inn. For mens Google sin søkemotor kanskje ikke blir så mye bedre av 10 000 ekstra observasjoner på toppen av de milliarder de allerede har, men de kan levere et relativt my bedre produkt sammenliknet med f.eks Bing. Og for oss som søker og opplever at Google oftere «tipper» rett på våre søk og gir oss treff med høyere relevans, så vil vi foretrekke Google for alle våre søk. Og når vi har kommet inn i Google’s økosystem (deres plattform), så er det ofte mye styr å bytte over til en annen plattform. Med andre ord er det stor verdi for Google i å kunne være marginalt bedre enn Bing. På denne måten vil ikke den samme loven om avtagende grensenytte gjelde når produkt går til plattform. I stedet ser det ut til at det er økende grensenytte (tegnet inn som blå linje i figuren under). Dette betyr det vil være økende etterspørsel etter gode data utover i plattformens livssyklus.

Så hvilke strategiske implikasjoner kan vi dra av dette. Jeg vil trekke frem to ting:

  1. Dersom du er et selskap som ser kundedata som en viktig innsatsfaktor i din egen reise fra produkt til plattform så bør tilgang til data sikres gjennom allianser eller kjøp av data fra tredjepart. Langsiktig konkurransefortrinn vil avgjøres av din evne til å sikre tilgang til data på lang sikt.

  2. Måten ditt selskap ser strategi på vil være avgjørende. Fokus på «hva som kreves av deg for å levere innovasjon og slå konkurrentene» vil ikke være tilstrekkelig. I tillegg må beslutningstaker stille seg følgende to spørsmål:

  • Hvem flere trenger å skape innovasjon for at min innovasjon betyr noe? – Dette er co-innovasjonsperspektivet hvor effekten av min innovasjon er en funksjon av andres. Eksempler her er at Amazon vil ikke kunne selge en god smarthjem løsning dersom nødvendige komponenter (lyspærer og stikkontakter) ikke eksisterer.

  • Hvilke andre må adoptere min innovasjon for at sluttkunden skal kunne oppleve et fullstendig verdiforslag? – Her er det snakk om å styrke adopsjonskjeden. Med dette mener vi tjenester og produkter bygd rundt din egen innovasjon. Et klassisk eksempel er at Apple iPhone ville vært vesentlig mindre verdt for kunden uten et rikt og åpent økosystem av apper og tilhørende tjenester.

I møte med økende grensenytte av data for å bedre din plattform, er fokus på gode allianser og tilgang på rike datakilder et vesentlig poeng. I tillegg bør beslutningstakere adoptere en større linse i sitt strategiarbeid. Uansett er vi tidlig i prosessen med å forstå data som råvare i digital innovasjon.

Kan kunstig intelligens gjøre flyplassloungen passé?

Dersom man er så heldig at man har en litt dyrere flybillett, så kan man nyte ventetiden på flyet sitt i en mer komfortabel stol med tilgang på mat, snacks og drikke. Loungene på flyplasser verden rundt gjør reisingen litt mer behagelig. Og i en tid når flytrafikk øker, så skulle man jo tro at de hadde en utmerket forretningsmodell.

Men tenk litt på det. Hvorfor er de der? Jo, de er der for å behage ventende passasjerer. Altså passasjerer som kommer litt tidligere til flyplassen enn nødvendig, eller som har et fly som er forsinket.

Dette er et ganske typisk scenario for mange flyreisende. Flyet går kl 1200. Og vi bør være der en time før, kl 1100. Vi bor ca 1 time unna flyplassen og bør derfor kjøre senest kl 1000. Men fordi vi ikke vet hvordan trafikken er, eller om det er noen forsinkelser av noe slag langs veien, så starter vi gjerne 30 min tidligere. Det skal legges til at hjemme hos meg har vi to vidt forskjellige syn på hvor tidlig vi må være på flyplassen, men det er en annen sak.

Vi kan med andre ord si at hovedgrunnen til at vi legger inn så mye tid er usikkerhet. Vi har for dårlige prediksjoner om fremtiden.

Hva om vi kunne predikere veldig nøyaktig hvor lang tid det tok å kjøre til flyplassen hvor lang tid sjekk inn og sikkerhetskontroll kom til å ta og samtidig vite på forhånd om det kunne oppstå forsinkelser i flytrafikken? Jo da hadde vi i prinsippet ikke trengt å bruke veldig mye ekstra tid på flyplasser. Og behovet for komfortabel venting hadde gått ned.

Dersom man er så heldig at man har en litt dyrere flybillett, så kan man nyte ventetiden på flyet sitt i en mer komfortabel stol med tilgang på mat, snacks og drikke. Loungene på flyplasser verden rundt gjør reisingen litt mer behagelig. Og i en tid når flytrafikk øker, så skulle man jo tro at de hadde en utmerket forretningsmodell. Og hvis du leser dette på en lounge eller et annet sted hvor du venter, kan du lese denne boka om akkurat dette tema.

Hvordan skape verdi av big data?

Altså vi har hørt dette mange ganger nå: «Det er enorme verdier i data». Det er vel og bra. Men hvordan kan vi faktisk skape verdier av big data? Tidlig forskning på område har noen forslag det er verdt å se mer på.

Det er to komplementære men forskjellige typer «assets» som må vurderes når man ser på verdien av big data. Den ene dimensjonen er analytiske kapabiliteter. Her ligger evnen til å kunne analysere komplekse data og skape mening ut av de. Den andre dimensjonen er tilgang til data. Det er stor forskjell mellom organisasjoners adgang til data ettersom mye er privat eid og kontrolleres av få aktører slik som Google og Facebook.

For å bygge analytiske kapabiliteter må mange organisasjoner investere tungt i immaterielle eiendeler og humankapital. Dette medfører en oppgradering av eksisterende arbeidsstokk og samtidig ansettelse av nye hoder som kan bringe ny innsikt. For organisasjoner hvor dataanalyse ikke har vært en sentral del av virksomheten tidligere, kreves det at man håndterer denne utviklingen som et innovasjonsprosjekt med stor autonomi, disiplinert lederskap og hvor analysetemaet får tilgang til hele virksomheten.

For å bygge tilgang til data kreves det en vesentlig investering i å strukturere eksisterende datakilder som er proprietære til den individuelle organisasjonen. Samtidig må man forstå hva som finnes av offentlig tilgjengelig data som kan kombineres med proprietære kilder. Et tredje punkt er å vurdere kjøp av tilgang til nødvendig data fra andre kilder. Og dette kan bli dyrt dersom virksomheten ikke har en klar oversikt over hva som trengs. Forskning på området tyder imidlertid så langt på at det er analytiske kapabiliteter som er den viktigste kilden til konkurransefortrinn.

Så hvordan kan bedrifter og andre organisasjoner tenke på verdiskapning fra big data? Hvordan kan de fatte beslutninger om investeringer som er riktig i forhold til de mål og forutsetninger virksomheten har?

Tidligere nevnte forskning antyder en mulig måte å tenke på dette på. Basert på intervjuer med fremtredende CEOs forslår de en typologi av digitale forretningsmodeller.

Data brukere (data users) er virksomheter som bruker data til strategiske beslutninger som f.eks hvilket produkt man skal lansere og når. Dette er bedrifter som også kan lage produkter ut fra sine data. Et eksempel på dette er PAI. Dette er en aktivitetsmonitor på samme måte som FitBit, men den er basert på input fra HUNT (Helseundersøkelsen i Nord Trøndelag). Innsikten fra tusenvis av mennesker som har blitt observert over 20 år har gjort at folkene bak PAI kan lage en mye bedre aktivitetsmonitor enn tidligere versjoner. Dette er altså et datadrevet produkt.

Data tilbydere (data suppliers) er virksomheter som samler data fra ulike kilder og gjør de klar for input inn i andre virksomheters beslutningsprosess. Verdiskapningen her skjer gjennom å pakke sammen data og selge videre. Et eksempel på dette er Legistorm. Selskapet rensker og sammenstiller masse data om den amerikanske kongressen som lønnsnivå, avstemninger, komitemedlemskap og lignende. Alle data er offentlig tilgjengelig, men i vanskelig tilgjengelig format for videre analyse. Derfor tilfører Legistorm verdi gjennom å renske og strukturere data for videre salg.

Data fasilitatorer (data facilitators) er virksomheter som bidrar til de andre kategoriene med infrastruktur og kunnskap. Slike virksomheter tilfører verdi gjennom å ha spisskompetanse på deler av dataanalyseprosessen. Dette kan være fysisk infrastruktur som skytjenester og beregningskraft (som Amazon Web Services), analyseplattformer (som SAS), eller konsulenttjenester som Accenture eller Nord Universitet spin-off Mimir Analytics.

De fleste virksomheter vi i DigInn jobber med havner i den første kategorien. De er ofte selskaper og organisasjoner uten teknisk spisskompetanse på dataområdet, men med en forståelse av at dette er et tog de må være med på. Og det er mange rammeverk og modeller for hvordan virksomheter kan ta dette skrittet. Men her vil jeg oppsummere dette i tre punkter.

  1. Start i det små – begynn å se på de data dere har i virksomheten. Dette krever vilje til å åpne opp datamaterialet og ikke frykte at det blir misbrukt av folk i organisasjonen til andre formål.

  2. Vær rask til å avslutte prosjekter som ikke avdekker noe vesentlig innen kort tid.

  3. Forankre arbeidet, om enn så lite, helt til topps i organisasjonen.

Vi i DigInn vil veldig gjerne høre om hvordan din organisasjon jobber med big data, så ta kontakt.

Når vi ikke kan ta på det som gir verdi

Bokanmeldelse – «Kapitalisme uten kapital» – Jonathan Haskell og Stian Westlake

I 2008 passerte investeringer i immaterielle eiendeler (intangible assets (IA)) investeringer i fysisk kapital (som maskiner, bygninger og annet du kan ta på). I boken «Capitalism without Capital» går forfatterne Jonathan Haskell og Stian Westlake grundig inn på hvorfor akkurat dette vil ha store konsekvenser for samfunn, markeder, bedrifter og individer.
Boken starter med å vise at IA har vært med oss gjennom hele den økonomiske historien. Historien om Quaker Oats trekkes frem. Henry Cowell, grunderen bak selskapet som lagde havregryn, måtte utvikle en markedsføringsplan for at folk skulle forstå at han ikke solgte hestemat (havre var tross alt det). Denne markedsføringen og brandingen ble en IA som sammen med havren utgjorde hele produktets verdi.

IA skiller seg fra sin fysiske fetter på fire områder (forfatterne omtaler dette som «immaterielle eiendelers fire S’er»).

  1. Scaleability: Det viktigste momentet som gjør selskaper som Google og Amazon så verdifulle er at de kan skaleres nesten uendelig uten øke kostnadene sine vesentlig. Mens Rema 1000 må ansette nye folk og øke flyten av varer for å håndtere en kundeøkning på 100 000 kunder, merkes knapt dette på Google sin plattform. Skalerbarhet betyr at IA kan brukes av mange samtidig og repetitivt uten at det forringer verdien av eiendelen. Høy skalerbarhet gjør IA potensielt veldig lønnsomt og kan samtidig bidra til å øke barrierene for å entre et nytt marked utenfra. Potensielt kan også skalerbarhet skape monopolsituasjoner – noe f.eks Google har fått føle på.

  2. Sunkenness: Starbucks Coffee finnes i mange land og følelsen av å gå inn i en av dem er relativt unik. Operasjonelle rutine er i detalj nedtegnet i driftshåndboka til Starbucks. Det er denne konsistente gjennomføringen som gir Starbucks mye av sin verdi. Dersom selskapet hadde gått konkurs ville det imidlertid vært svært vanskelig å selge denne immateriell eiendelen. Selv om håndboka er en særdeles viktig av Starbucks sin verdi (den sørger for konsistens og en unik kundeopplevelse) er dens verdi knyttet til Starbucks brand, kultur og struktur. Utfordringen når graden av sunkenness går opp er at det er vanskeligere å finansiere. Spesielt er det vanskelig å få gjeldsfinansiering fordi en IA ikke enkelt kan stilles som pant.

  3. Spillovers: Når Apple lanserte sin iPhone skapte de en ny produktkategori; smartphone. Andre merker kom raskt med sine telefoner som lignet på Apple sitt produkt. Dette gjorde at markedet for smartphones vokste ekstremt raskt. Med andre ord gjorde en IA teknologi mulig fremvekst av andre IA teknologier mellom markeder og bedrifter. Dette skaper selvfølgelig noen incentivproblemer dersom en bedrifts teknologi kan skape verdi for andre uten at dette kommer den opprinnelige bedriften til gode.

  4. Synergier: The Beatles fremførte en helt ny form for musikk som åpenbart var en IA. Plateselskapet, Parlophone, hadde i tillegg særlig gode kapasiteter til å markedsføre og promotere band. Tilsammen skapte de legenden og cashmaskinen The Beatles. Og nettopp synergier er et vesentlig moment ved IA i følge Haskell og Westlake. Det at ofte store og uforutsette synergier oppstår mellom IA, og IA og fysiske eiendeler, gjør det vanskelig å forutse investering i IA og dens potensielle payoff. Man kan fort systematisk undervurdere IA og velge å avstå fra investeringer.

Haskell og Westlake trekker frem flere konsekvenser av fremveksten av IA. Og en full gjennomgang av disse er i overkant langt for en blogpost. Men blant trekkene som de relativt overbevisende viser til er:

  • Fremveksten av IA sammenfaller med økning i økonomisk ulikhet. Årsaken ser ut til å være at IA i relativt større grad skaper verdier til kapitaleiere fremfor arbeidere. Dette er også et av hovedargumentene til Thomas Piketty i hans mye omtalte bok (uten at han ser spesifikt på IA). Samtidig forfordeles arbeidskraft med høy kompetanse. Folk uten utdanning har vanskeligere for å kunne jobbe i en økonomi med økende grad av IA – selv om Uber og andre selskaper selv er en funksjon av IA, men også gir folk uten høy teknisk kompetanse muligheten til å jobbe.

  • Den ekstremt trege veksten i investeringer og produktivitet (secular stagnation) kan også knyttes til IA. På grunn av skalerbarheten har noen veldig få bedrifter blitt veldig store og rykket fra konkurrentene. Avstanden i produktivitet mellom et lite knippe markedsledere og en stor gruppe markedsfølgere, har økt dramatisk. Med andre ord har vi en slags «winner takes all» logikk. Dette reduserer insentivene til å investere i disse bedriftene som havner bak.

  • På grunn av karakteristikkene til IA er de vanskelig å verdsette. I motsetning til bygninger og maskiner finnes det ingen annenhåndsmarkeder for IA. Dette gjør at finansiering av IA er vanskeligere. Banker vil sjelden gjeldsfinansiere slike investeringer fordi det er vanskelig å ta pant i IA. Dette gjør egenkapitalfinansiering enda viktigere. Men disse markedene preges av store institusjonelle investorer som foretrekker forståelig risiko – noe vi mye godt mangler når det gjelder IA.

Digital innovasjon skapes i stor grad gjennom investering i IA. Haskell og Westlakes analyse i denne boken gjør oss oppmerksomme på noen av utfordringene og mulighetene som ligger i en økonomi som stadig blir mer immateriell. For bedrifter og organisasjoner vil overgangen til mer IA bety at de må rekalibrere sine beslutningsmodeller, finansieringsmix og kapasiteter for å konkurrere effektivt. For oss som samfunn betyr det at vi må finne omfordelingsmekanismer som fungerer når avkastningen på IA øker over tid.

Analysene i boken er grundige og basert på førsteklasses forskning. Jeg savner imidlertid at forfatterne går litt forbi mikroøkonomiske analyser og beveger seg noe mer inn i økonomisk sosiologi og adferdsforskningen for å berike sine analyser. Når det er sagt så viser boken et betydelig grep om sentrale teoretiske og empiriske konsepter og er en berikelse for alle som er opptatt av fremveksten av immaterielle eiendeler.

Jeg vil nok ikke anbefale boken i sin helhet til praktikere da den er noe teknisk krevende i enkelte partier og kanskje ikke like relevant i hverdagen til mange.

Ryktet om arbeidsplassers død er sterkt overdrevet

Bokanmeldelse – «Predictive Machines» – Agrawal, Gans og Goldfarb

Historien om kunstig intelligens er ofte en hvor maskiner erstatter mennesker på arbeidsplassen. Noen går lenger og forfekter en verden hvor mennesker blir maskinenes slaver. Ingen av disse fremtidsbildene stemmer, i følge forfatterne av boken «Predicitve Machines – The Simple Economics of Artificial Intelligence». Men måten vi jobber på kommer til å endres dramatisk.

Boken har et forlokkende enkelt argument godt fundert i enkel mikroøkonomisk teori. Mennesket har alltid vært «in the business of prediction». Vi jobbet tidlig for å forutse hvor mammuter eller sabeltanntigre ville befinne seg i steinalderen. Mer nylig har vi forsøkt å velge den perfekte julegaven i 2019 etter et katastrofalt dårlig gavevalg i 2018. AI leder først og fremst til bedre og billigere prediksjoner. Når noe blir bedre og billigere, konsumerer vi mer av det (det er dette vi kaller fallende etterspørselskurver). Dette betyr at vi kan la maskiner håndtere mer og mer av våre prediksjoner for oss. AI kan gjøre mer av det vi gjør.

Dette må jo være dårlig nytt for arbeidsmarkedene, sier du? Nei, vil Agrawal og hans kolleger hevde. For samtidig med at etterspørselen etter AI går opp, går etterspørselen av komplementer til AI også opp. Et komplement (komplementært gode) er et hvor etterspørselen øker som følge av økning i etterspørsel av et annet gode. Når etterspørselen etter kaffe øker, øker også etterspørselen etter fløte og sukker. Og her ligger det veldig enkle resonnementet til Agrawal & Co: AI har mange komplementer.

Og her trekker de frem mange eksempler komplementer til AI. Men den viktigste er utøvelses av skjønn (judgement). Mennesker er relativt sett mye bedre enn maskiner til å utøve skjønn. Skjønn er nødvendig for å virkelig dra verdi ut av en god prediksjon. Et eksempel på dette er kredittkortselskapers evne til å forutsi svindel. Denne prediksjonen er vesentlig bedre med AI enn den var tidligere, og man kan raskt avdekke potensielle svindelforsøk. Samtidig kan prediksjonen, hvis den ble overlatt til seg selv, predikere svindel i tilfeller der dette ikke var tilfelle og nekte en legitim transaksjon. Mange har opplevd at de har fått kortet avvist i butikker de vanligvis ikke handler i fordi automatisert prediksjon har fattet mistanke basert på lignende transaksjoner hos lignende kunder. Dette kan føre til en meget misfornøyd kunde og ha en kostnad prediksjonen ikke klarer å ta innover seg. Her må menneskelig skjønn til for å avdekke riktig handling.

Etterspørselen etter skjønn øker altså samtidig med etterspørselen etter prediksjon. Dette tyder da på at man ikke får færre, men flere nye jobber som følge av AI. Det er selvfølgelig mange forutsetninger her, men bokas hovedargument er at mens enkelte funksjoner overtas av maskiner, øker behovet for menneskelig interaksjon med disse maskinene. Dette betyr at mens det å analysere røntgenbilder nå gjøres bedre av AI, har etterspørselen etter radiologer ikke gått ned. Det samme viser statistikken over jobbannonser i yrker hvor nettopp AI er antatt å ha stor effekt. Forfatterne viser til at antallet markedsføringsjobber har økt, men at disse jobbene inneholder større grad av skjønnsmessige ferdigheter enn tidligere.

Boken er veldig lett skrevet og bruker gode eksempler til å belyse hovedargumentene. Det mangler noe på empiri, men det er nok ikke rart all den tid dette er et fenomen som nettopp har begynt å vise seg rundt oss. Boken kan anbefales til praktikere og akademikere som en god innføring i kunstig intelligens og dets effekt på økonomien.

Avi Goldfarb er professor i markedsføring ved Rotman School of Management, University of Toronto. Her fra et seminar om kunstig intelligens denne uken, arrangert av University of Wisconsin-Madison School of Business.

Beslutninger: Riktig beslutningsparameter

Etablerte virksomheter med vett på risikostyring har minst ett øye på nåverdien av nye prosjekter og potensielle nye markeder og kunder. Og det er veldig fornuftig når vi snakker om områder der vi har god forståelse av risiko. Figuren under viser en måte å tenke på nye muligheter på. Den vertikale aksen beskriver risiko knyttet til teknologien vi tenker å anvende. Den horisontale aksen måler samtidig markedsrisikoen vi står overfor. Et eksempel kan være at DNB skal lansere en ny mobilbank. Teknologien for mobilbanker er ganske godt testet ut og vi vet at det er et marked for slike tjenester (men kanskje ikke veldig lønnsomt i seg selv). En slik mobilbank vil være et prosjekt som blir liggende nederst til venstre i figuren under. I et slikt tilfelle vil DNB gjøre lurt i å fokusere på nåverdiberegninger og andre tradisjonelle mål på forventet avkastning gitt risiko.

(Petersen og Ryu, 2015)

Men jo mer teknologisk risiko og markedsrisiko vi ser for oss, jo mindre egnet blir nåverdiberegninger til å fatte beslutninger på. Årsaken er nemlig at de aller fleste slike beregninger vil vise at dette er noe vi IKKE bør igangsette.

Steve Jobs satte I gang en rekke prosjekter som aldri kunne regnes hjem på denne måten. Noen av de, slik som LISA, ble en gigantisk nedtur. Andre, slik som iPad, har forandret måten vi konsumerer media på. Og selv om Jobs ofte tok beslutninger på mindre rasjonelt grunnlag (eller fikk viljen sin gjennom det Walther Isachson beskriver som «The Reality Distortion Field»), ligger det noe fundamentalt i å legge tradisjonelle kalkyler til siden når man jobber med innovasjon.

La oss ta et tenkt eksempel på hvordan en bank kunne beveget seg i retning av mer usikre og potensielt lønnsomme innovasjonsprosjekter. Et sted å starte er med bankens viktigste ressurser og kapabiliteter som utgjør deres konkurransemessige fortrinn i dag. For mange mindre banker er dette i hvert fall to ting:

  1. god kjennskap til sine kunder inkludert store mengder data og god kommunikasjon med kunden,

  2. stor tillit til å håndtere verdier.

Et naturlig utgangspunkt ville vært og kikket etter innovasjonsprosjekter som drar nytte av disse to kapabilitetene og bygge videre på disse. Et mulig eksempel er at banker bør tilby forvaltning av personers data. All den tid data forer en stadig voksende del av forretningsmodeller verden over og selskapers kommunikasjon med hver enkelt av oss er kostbar, vil det være et rasjonale for banker å ta en posisjon som forvalter. Hvis man tenker på det er det ikke så ulikt det banker gjør i utgangspunktet; de finner kjøpere av verdier (som sparepenger) og selgere av verdier (som sparepenger). En bank kan dermed bli en som forvalter kundenes data (alt fra kjøpsadferd, finansielle forhold til personlige preferanser osv). Slik kan selskaper som trenger data på en bestemt gruppe mennesker for å kunne tilby et bedre produkt henvende seg til banken som selger slike datasett mot penger. Disse pengene finner da veien til oss som kunder og banken beholder noe av verdien – på samme måte som sparepenger og lån.

Et slikt innovasjonsprosjekt vil medføre betydelig markedsrisiko og trolig også stor teknologisk risiko. Bankenes datasystemer er ikke tilrettelagt og kundenes vilje til å dele data kan fort være svakt. NPV vil med stor sannsynlighet være negativ (eller i det minste ha en enorm terminalverdi). Så hvordan kan en slik beslutning fattes i en organisasjon som sliter i nåverdifella? Kanskje kan den ikke det. Men her er tre steg man kan gå gjennom for å sørge for en tryggere beslutningsprosess:

  1. Avgjør om ideen/innovasjonsprosjektet har strategisk viktighet for virksomheten. En måte å se dette på er å tenke på om prosjektet har potensiale til å utvikle nye kontantstrømmer for selskapet på lang sikt og hvorfor dette i så fall er tilfelle. Her anbefaler jeg ofte bedriftsledere å se på konseptet «blue ocean strategy» som er et rammeverk for å omdefinere sin virksomhet bort fra den blodige krigen om markedsandeler («red ocean»). For vårt eksempel med dataforvaltning er dette et helt nytt marked for banker hvor tillit og gode løsninger vil skape store nettverkseffekter og «lock in» fordeler for «first movers». Jeg vil derfor hevde at man kan se dataforvaltning som strategisk viktig for banker fremover.

  2. Sørge for å etablere et knippe steg hvor eierskap til hvert steg ligger hos toppledelsen. Hvert steg skal nås raskt og kunne evalueres med klare kriterier hvert ledd. Dette er i tråd med ideen om å feile raskt hvor innovasjon sees som en iboende usikker prosess hvor eksperimentering er nøkkelen til suksess. Det betyr at man vil feile. Sørg for å lære av feil. Det høres veldig trivielt ut, men det som avgjør om feiling er positivt eller negativt er hvorvidt vi lærer av feil. Feiling som følge av inkompetanse er ingen god vei. Vårt eksempel med dataforvaltning vil fordre at vi raskest mulig setter opp en prototype som vi kan rulle ut til bankens egne ansatte eller en fokusgruppe. Denne trenger ikke ha bred funksjonalitet, bare skrape det viktigste av data som er tilgjengelig om ansatte fra sosiale medier og åpne kilder. Dersom dette ikke lar seg gjøre bør prosjektet skrinlegges eller omdefineres.

  3. Etablere en disiplinert tilnærming til eksperimentering. Dette knytter seg til feiling systematisk og under kontrollerte former. Gary Pisano ved Harvard Business School argumenterer for det han kaller «the killer eksperiment». Ideen er å designe et eksperiment som er ment å teste, på strengest mulige måte, hvorvidt konseptet vi ønsker å skape er liv laga. Dersom konseptet overlever dette eksperimentet, kan man relativt trygt ta det videre. Dataforvaltning kan testes på samme, strenge måte. Vi kan samle et knippe teknologisk bakvendte kunder som skal forstå, like og bruke konseptet vi utvikler. Dette stiller sterkere krav til vår prototype og til måten vi presenterer konseptet på.

Det å bytte ut NPV som beslutningsparameter med en mer kvalitativ tilnærming som presentert over, er krevende for mange virksomheter. Det finnes likevel mange gode tilnærminger langs de linjene jeg beskriver over. Og vi i DigInn vil komme tilbake til flere av disse i tråd med at vi forsker på bedrifters innovasjonsprosesser.

Beslutninger: Nåverdifella

«Hva er nåverdien? Når er vi cash flow positiv? Vis meg business caset!». Dette er utsagn jeg selv har brukt hundrevis av ganger i møte med nye ideer og prosjekter i bedrifter jeg har jobbet med og for. Det er helt naturlig for meg å ønske å se en risikojustert oppstilling av den forventede verdien av å gjøre en investering. For de som ikke er så vel bevandret i dette språket så handler nåverdiberegninger (link til intro til nåverdi) om å vise hvor lønnsomt et mulig investeringsprosjekt er dersom vi tar hensyn til tidspunktet pengene kommer inn på, og den totale risikoen i prosjektet. Dette har skapt en egen industri av investeringsbanker, konsulentselskaper og meglerhus, men også store interne avdelinger som regner på avkastning og risiko på alle tenkelige og utenkelige prosjekter en bedrift vurderer.

Og det er veldig fornuftig. Gjennom å tvinge seg selv til å vurdere både inntjening og risiko innenfor et veletablert økonomisk fagfelt (finans) så klarer man å frembringe et meget konsist beslutningsgrunnlag: Dersom nåverdien er positiv så bør vi igangsette prosjektet. Og det er en hel kunst (mer enn vitenskap) til akkurat dette med å verdsette prosjekter. Og dets vitenskapliggjøring av finansielle og strategiske beslutninger har vist seg å være veldig populært.

Problemet med metoden er imidlertid når prosjektets potensiale ikke er risikabelt, men usikkert. Dette følger Frank Knights klassiske distinksjon mellom risk and uncertainty. Knight fremholder at risiko er dagligdags og utfallene kan svinge innenfor et visst intervall og at vi på denne måten kan kvantifisere den. Når man vurderer å bygge en ny basestasjon som mobiloperatør, by fabrikk som industribedrift, ny butikk dersom man er Elkjøp, ja da er dette et utmerket verktøy fordi man snakker om risiko for prosjektet. Selv om utfallet kan svinge, er det ingen usikkerhet knyttet til slike prosjekter. Det er mulig å håndtere risiko.

Usikkerhet er på sin side, hevder Knight, umulig å tallfeste og kan ikke predikeres. Dermed er det også umulig å håndtere usikkerhet.

All den tid prosjekter har risiko, men ikke preges av Knights definisjon av usikkerhet, så gir det mening å bruke etablerte mål på risiko og dermed nåverdiberegninger, opsjonsprisingsmodeller og andre teknikker fra den kvantitative finansen. Men dersom prosjektenes utfall er usikre, lar de seg ikke predikere. Og dersom man prøver, så forveksler man usikkerhet med risiko og man lurer seg inn i en falsk følelse av prediksjon.

Det er dette jeg kaller nåverdifella. I møte med prosjekter med usikkerhet (typisk innovasjonsprosjekter eller produktutvikling langt utenfor en bedrifts kjernevirksomhet) kjører alt for mange bedrifter en standard verdivurdering av prosjektets potensiale. Dette arbeidet fører ofte til at prosjekter ikke blir i igangsatt, men det skaper også en falsk trygghet dersom man finner at prosjektets nåverdi er positiv. Man tror man har kontroll på utfallet, men har det ikke (selv om det finnes matematiske forsøk på å gjøre NPV robust mot stor grad av usikkerhet, men som ikke er direkte anvendbare i praksis og håndterer ikke reell Knightean uncertainty).

Dermed står nåverdimetoden i veien for mange bedrifters evne til å bevege seg langt nok ut i utforskende modus; ideene blir stoppet fordi man ikke klarer å tallfeste det som ikke kan tallfestes – nemlig usikkerhet. Og i en verden med stor endringstakt som i den digitale transformasjonen mange virksomheter nå står overfor, kan dette bli et stort feiltrinn.

I neste blogginnlegg skal vi utforske virksomheters interne kamp mellom utforsking og utnytting og samtidig hvor vanskelig det er å bevege seg langt unna kjernevirksomheten.

Hvorfor lykkes så få virksomheter med digital transformasjon?

De aller fleste virksomheter klør seg litt i hodet av buzzord som digitalisering og digital transformasjon. Det er både noe skummelt og lovende over det på samme tid, men også høyst uklart hva som må til for å lykkes.

Og det er sant; digital teknologi endrer måten vi jobber på, våre produkter og tjenester, og måten vi forstår markeder og samfunnet på. Men hva det betyr for den enkelte av oss og de virksomheter vi jobber i, er mer uklart.

Personlig tror jeg mye av utfordringen ligger i at vi som mennesker trives særdeles dårlig i ambivalens – altså i situasjoner der ting er usikkert og sikkert på en gang. Det er sikkert at digital teknologi påvirker oss, men usikkert på hvilken måte. Og vi forsker mye på hvordan organisasjoner lykkes med denne usikkerheten – denne avveiningen mellom det sikre og det usikre. Men nylig ble jeg utfordret på hva dette betyr for den enkelte av oss? Hva kan man gjøre på individnivå for å gjøre veien inn i fremtiden mindre smertefull og usikker?

Mitt svar er at det kan man ikke. Men fremtredende forskere på individers tilpasningsevne har likevel noe å tilføre debatten. Det er to bidrag som kan trekkes frem for å belyse hvorfor individer har vanskelig for å adoptere endring og dermed hvorfor virksomheter ikke lykkes med en omfattende endring som digital transformasjon.

Organisasjoner legger ikke til rette for at individer skal lære

I en utmerket artikkel i Harvard Business Review forsøker Francesca Gino og Bardley Staats å besvare spørsmålet om hvorfor organisasjoner ikke lærer. Læring er helt essensielt for å tilpasse seg endring. Vi blir tryggere, bedre og mer fornøyd av å lære på arbeidsplassen, og arbeidsgiver drar nytte av kunnskapsrike medarbeidere som bidrar til smartere måter å gjøre ting på. De trekker frem to forhold som preger organisasjoner hvor man ikke evner å legge til rette for at individer skal lære.

For det første preges organisasjonene av for mye fokus på suksess og for lite på feiling. Når suksess blir satt i høysete går man glipp av den fundamentale læringen som skjer gjennom å feile. En organisasjonskultur som dyrker frykten for å feile og legger stor vekt på tidligere resultater gjør medarbeidere redde for å tenke nytt og ta sjanser. En virksomhet jeg jobbet med var så opptatt av å fortelle suksesshistorier at alle prosjekter hvor ting gikk litt skeis, ble bedt om å ikke rapportere før forholdene var fikset. På den andre siden av skalaen finner vi organisasjoner som feirer feil og således fjerner stigma som kommer av å feile. Et klassisk eksempel er Coca Colas CEO, James Quincey, som skal ha sagt: «If we´re not making mistakes, we are not trying hard enough».

For det andre preges organisasjoner som ikke klarer tilpasningen av for mye fokus på action. I møte med utfordringer er ofte oppskriften å «jobbe hardere» eller «gjøre mer». Ofte blir det å gjøre «noe» viktigere enn «hva» som blir gjort. I slike tilfeller gis det lite rom for å stoppe opp og tenke. Ansatte blir slitne og åpenbare løsninger blir ikke oppdaget. Jeg har selv vært i bedrifter hvor nye markedsforhold var så uavklarte at all innsats egentlig burde avventes. Ledelsen fikk litt «mark i magen» av å sitte stille at de igangsatte en hel masse prosjekter som bare skapte mer kaos og usikkerhet, og samtidig ikke hadde noen som helst effekt lenger ned i veien. På den andre siden har jeg vært inne i organisasjoner der operasjonelle medarbeidere som salgs- og produksjonsansatte ble bedt om å reflektere jevnlig over egen og bedriftens situasjon, og melde sine tanker tilbake til ledelsen.

Det må gi mening

I sin meget innflytelsesrike artikkel fra 1993 forteller organisasjonsteoretikeren Karl Weick historien om en elite styrke av brannmenn som hoppet i fallskjerm midt i sentrum av gigantiske skogbranner. Dette var de trente på og hadde utviklet en metode av taus kunnskap om hvordan de forholdt seg til hverandre og flammene når de var i action. De hadde i følge Weick utviklet en felles forståelse for å gi omgivelsene mening (han brukte det engelske ordet «sensemaking» fra det at brannmennene «was making sense» av omgivelsene). Grunnen til dette er, i følge Weick, at det er umulig for individer å ta inn over seg all type informasjon som til enhver tid finnes rundt oss. Derfor lager vi snarveier og tolker omgivelsene basert på enklere regler og ideer gjennom en prosess han kaller «sensemaking».

På samme måte utvikler alle typer organisasjoner tause og felles forståelser av hvordan omgivelser gir mening. Individer i organisasjoner tolker omgivelser og ting som skjer rundt de gjennom «sensemaking». I hverdagen er dette måten vi som fellesskap handler på en gitt måte innenfor en organisasjon.

Men Weick forteller videre i sin historie om brannmennene at de på et av sine oppdrag opplevde at brannen var en helt annen enn de hadde møtt tidligere. Den var mye større og mer volatil enn de hadde forventet. All trening og samhandling hjalp ikke. I møte med en ukjent og ny situasjon ble brannmennene som organisasjon ble lammet.

Som et svar på denne lammelsen tok lederen – Dodge – blant brannmennene et valg som virket helt meningsløst for de andre. Han gjorde opp et bål midt i flammehavet og krøllet seg sammen på det stedet når bålet brant ned. De andre gjorde det treningen og erfaringen deres sa – løp for livet. Flammehavet bevegde seg rundt stedet hvor Dodge hadde brent sitt bål. Der var det ingenting å brenne. Dodge overlevde. De aller fleste av de andre døde.

I møte med store endringer opplever ofte mennesker i organisasjoner at ting ikke gir mening. De henfaller til vaner og metoder de har brukt i årevis. Likevel fungerer det ikke. Og de oppfatter ofte tiltak som kommer fra ledelsen som uvante og skjønner kanskje ikke hvorfor dette er nødvendig. Weick argumenterer med at på samme måte som ingen av de andre brannmennene klarte å «make sense» av brannens plutselige omfang og heller ikke skjønte «logikken» bak Dodges tiltak, klarer ofte ikke mennesker i organisasjoner å tilpasse seg endrede rammebetingelser.

I kjølevannet av Weicks «sensemaking» teori har det vokst fram en rekke avarter. En avlegger er «technological sensemaking» som brukes for å forstå hvorfor organisasjoner klarer eller ikke klarer å adoptere ny teknologi. Spesielt trekkes forskjeller i måten ulike brukere forstår (makes sense of) teknologien og hvilken mening vi tilskriver den. Alle vet vi at det ofte er forskjeller i måten en IT avdeling ser på teknologi på sammenliknet med oss selv. For teknologimiljøer kan en teknologi (f.eks iPad som pasientjournal) gi mening fordi det forenkler databaseflyt, feilkilder reduseres og prosesser kan automatiseres. For sykepleiere og hjelpepleiere som skal benytte disse nyvinningene tilskrives teknologien mer som en elektronisk penn hvor alt tar mer tid enn før. Denne mismatchen mellom ulike individer i organisasjonen kan fort stoppe teknologisk adopsjon.

Hva kan dette bety for praksis?

Organisasjonsteori og læringsteori er ofte abstrakt. Og jeg er ikke sikker på om jeg klarer å omsette alt dette til praktiske læringspunkter. Men vi prøver.

Organisasjoner som skaper rom for feiling og samtidig tid til refleksjon har en vesentlig større kapasitet for læring og dermed adopsjon av nye muligheter.

  • Gjør som Coca Cola – hei frem feil og feir læring fra feil

  • Skap faste punkter for refleksjon på alle nivå. For en sykepleier i en kommune bør det være avsatt tid til å tenke og kanskje til og med skrive ned sine refleksjoner rundt sine daglige gjøremål over tid

  • Disse refleksjonene må så leses og deles med alle medarbeidere for å forsøke å skape en felles refleksjonskultur

Men i tillegg må organisasjoner ha inngående forhold til hvordan individer på ulike nivåer og i ulike funksjoner i organisasjoner forstår (makes sense) ny teknologi.

  • Weick trekker frem at improvisasjon bør oppmuntres. Dette kan bety at man gjennom refleksjonene nevnt over identifiserer nye måter å gjøre ting på.

  • Man kan også øve på improvisasjon på ulike måter

  • Det er også særlig viktig å tidlig artikulere og reflektere på alle nivå for å avdekke inkonsistens mellom ulike funksjoner

Men hva med Big Data i offentlig sektor da?

Den fremste fordelen med å ha tilgang til store mengder data er at vi kan gjøre bedre prediksjoner (se tidligere innlegg) og det har store konsekvenser for bedrifter og næringsliv. Dette gjør at Boeing kan anslå veldig presist når ulike deler i deres fly må byttes. Skape en bedre handleopplevelse eller generell kundeopplevelse slik som Starbucks gjør med kaffekundene sine . Øke forståelsen for egne kunder og dra nytte av dette til bedre lønnsomhet slik som American Express har gjort Og det finnes mange rammeverk for å inkludere bruk av big data i bedrifter og mange ytterlige eksempler på hvordan dette har blitt brukt. Forskningen er også kommet et godt stykke på vei i å forstå forretningsmodeller fra big data bedre.

Grovt sett er det to forhold hvor big data har store implikasjoner for bedrifter:

  1. Kunnskap om kundene gir mulighet til å kunne skape produkter og tjenester som er bedre tilpasset kundenes behov og ønsker. Særlig er det stort potensiale i å kommunisere bedre med egne kunder for å øke virksomhetens innovasjonskraft.

  2. Kunnskap om egen drift gjennom å kunne identifisere problemer i egen produksjon, skape bedre flyt i prosessen, og skape andre muligheter for produksjon.

Vi kan med andre ord litt enkelt si at det big data kan rette seg mot produksjonssiden og kostnadssiden av foretak. Og dette er jo i høyeste grad også relevant for offentlige organisasjoner. Det er mange forhold som trekkes frem, men innovasjon i offentlige tjenester er særlig spennende.

For å innovere må vi vite – masse Kunnskap om behov og preferanser hos brukere er vesentlig. For mens innovasjon i et marked for vanlige varer og tjenester skjer gjennom en kontinuerlig «feedback loop» mellom selger og kjøper, finnes ingen slik kontinuerlig mekanisme i offentlig tjenesteproduksjon. Det betyr at en kommune må finne erstatninger for denne «markedsmessige kommunikasjonen» for å lykkes med innovasjon. For markedsbaserte varer og tjenester er dette utfordrende nok. I mangel på markeder for effektiv feedback er dette ytterligere krevende ettersom produsenten selv må sørge for å fasilitere kommunikasjonen. Og her har Big Data Analytics (BDA) (avansert analyse av store datamengder). Her er noen interessante kostnadsbesparende eksempler som følge av innovative løsninger.

  • Ved hjelp av systematisk analyse av google søk har amerikanske myndigheter klart å overvåke og spore spredningen av influensa og andre smittsomme sykdommer på en måte som bedrer forebyggende tiltak.

  • Kombinasjon av persondata og sosiale medier har skapt muligheter for å predikere hvem som snyter på skatten og dermed sette inn forebyggende tiltak uten å bryte personvern.

  • Bedre arbeidsprosessene i offentlige tjenester ved å kombinere informasjon fra forskjellige kilder slik at vi som innbyggere slipper å oppgi samme informasjon i flere offentlige instanser.

Likevel er det, etter min mening, på produksjonssiden det mest spennende potensialet fra BDA fremgår. Dette er i all hovedsak knyttet til å skape bedre tjenester tilpasset innbyggerne. Forskning har vist at gode relasjoner på denne måten skaper høyere tillit, skaper en kultur for åpenhet og deling, og åpen offentlig sektor initiativ (open government). En stor empirisk studie fra hele EU fant at engasjement i egen situasjon som borger øker med kommunenes bruk av sosiale medier, men at effekten ikke nødvendigvis øker med antall innbyggere. Dette gjør det høyst relevant for mange norske kommuner med et ikke alt for stort folketall. Et meget spennende eksempel er nettstedet citysourced.com som kobler innbyggere og lokale myndigheter slik at førstnevnte kan rapportere om alle mulige slags problemer i nærmiljøene sine slik at kommunene kan aksjonere på dem. Dette sparer tid og penger, samt øker brukeropplevelsen.

Og nettopp det å bedre forstå brukeropplevelsen er et kjernemoment i det å gjøre offentlige tjenester bedre. I litteraturen om offentlig tjenesteproduksjon har moteord som co-creation (samskaping) og dets operasjonelle kusine Kommune 3.0 blitt fremtredende. Veldig enkelt sagt handler det om å involvere brukere, kommunen, lokalsamfunn, næringsliv, frivillighet og sosiale entreprenører i produksjon av offentlige tjenester. Og denne formen for innovasjon muliggjøres gjennom god kommunikasjon mellom kommuner og brukere hvor BDA spiller en utpreget rolle.

Hva kan norske kommuner gjøre? Mange norske kommuner tenker mye på dette og flere store prosjekter er i igangsatt. Det tenkes og gjøres mye godt rundt forbi. La meg likevel reflektere litt rundt hva slags kapasiteter kommuner og offentlige etater bør se mot å utvikle (i den grad de ikke allerede har gjort det).

  1. Utvikle kapasiteter til å gjennomføre kontinuerlige sentimentanalyser blant egne innbyggere. Tilgangen til software og programmeringsspråk som kan gjøre relativt presise sentimentanalyser basert på informasjon som er åpent tilgjengelig gjennom sosiale medier, er kraftig økende. En systematisk tilnærming til å følge egne innbyggere vil kunne gi betydelig innsikt i hvordan politiske prosesser oppfattes og tjenester blir tatt i mot. Dette kan imidlertid veldig fort gjøres uten vesentlig økning i antall årsverk og i stor grad knyttes direkte til mål kommunene har satt om kvalitet på tjenester.

  2. Jobbe mot en kultur og kapasiteter for åpen data tilgang. Dette betyr å skape de nødvendige forutsetningene for en mer åpen deling av data på tvers av private og offentlige kilder. Dette er ikke enkelt, men potensialet er enormt. Særlig trekkes utdanning og helse/omsorg frem. Åpen data skaper nye muligheter for å tilpasse læring til den enkelte elev fordi man kan kartlegge utfordringer og fremgang på en helt ny måte. I helse ligger det stort potensiale i å identifisere individer i faresonen for ulike sykdommer, utvikle rettede tiltak og opplæring av individer i risikogrupper. Eldreomsorg kan styrkes gjennom å bedre kjenne bakgrunn og familiære koblinger pasienten har.

  3. Gjennom økende grad av åpen data tilgang og deling av data, er det behov for måter å ivareta innbyggeres interesse på. En potensiell rolle for kommuner er å tilby tjenester for forvaltning av data på vegne av innbyggere. Fremveksten av data som «råvare» i mange bedrifters verdiskapning (de tjener penger på å vite mest mulig), har skapt behov for måter å ta kontroll på egne data på. Offentlige reguleringer som GDPR bidrar til å styrke individets kontroll, men det er fortsatt en lang vei å gå før vi som enkeltmennesker kan kontrollere bedrifters bruk av våre data. Noen av oss vil kunne bruke såkalte «Personal Data Exchanges» hvor vi kan selge data om oss selv til selskaper som trenger dem til sine produkter og tjenester. Men for mange vil dette være vanskelig i praksis grunnet liten kjennskap og interesse. Her kan kommunene eventuelt bidra med offentlige tjenester som både sikrer kommunene bedre datatilgang, og samtidig hjelper innbyggere til å forvalte sine egne dataressurser.

Uansett hva som viser seg å være lurt i årene som kommer, vil norske kommuner tjene på å tenke på dette allerede nå. Og i samkvem med universiteter og programmer som DigInn kan man skape mange muligheter for gode offentlige tjenester i årene fremover.

Er bitcoin en god ide?

Lite har skapt mer «buzz» en kryptovaluta det siste året. Og for omtrent ett år siden var verdien av den mest fremtredende av disse elektroniske myntene – BitCoin – på nesten 20 000 USD pr stykk. Mange tidlige investorer i BitCoins ble millionærer på papiret og var ikke fremmede for å stå frem i en aura av sin egen genialitet. For andre var det en følelse av en ny boble hvor underliggende verdier ikke kunne forsvare den høye prisen. Ett år etter har verdien av BitCoins falt kraftig, men har fortsatt en betydelig verdi, i tillegg til at svingningene (volatiliteten) har falt. Betyr dette at vi nærmer oss en tilstand der kryptovaluta kan være nyttig som noe annet enn et rent spekulasjonsobjekt?

Det finnes to motstridende holdninger til kryptovaluta. Den ene hevder at desentraliserte løsninger som BitCoins er fremtiden. Den andre hevder at kryptovaluta mangler de egenskapene som gjør den til en valuta i utgangspunktet.

En verden uten autoriteter og lukkede transaksjoner

Menneskehetens største innovasjon ble en realitet da vi klarte å etablere tilstrekkelig tillit til å kunne samarbeide i store grupper. Disse tillitsprinsippene har gjort oss i stand til å investere tilstrekkelig i ny teknologi, infrastruktur og kunnskap. Vi har klart å skalere tillit i internasjonal skala gjennom å etablere sentrale entiteter som nasjonalstater og internasjonale organisasjoner. Hele den vestlige verdens ide om en samfunnskontrakt er tuftet på lånt tillit som må fortjenes over tid (anbefaler denne som en utmerket artikkel på tema). Dette har selvfølgelig ikke vært en rett linje og vi sliter til stadighet med at tillit rives ned og må bygges opp igjen i disse systemene. Et meget sentralt element i denne strukturen har vært nasjonale sentralbanker som har gått god for pengers verdi og dermed fungert som en garantist – en tillitsinstitusjon. Likevel har slike sentraliserte strukturer ved flere anledninger brutt de løfter de har gitt.

Kryptovaluta tilbyr en løsning på dette problemet. Ved bruk av den underliggende «blockchain» teknologien kan kryptovalutaer som BitCoin tilby en lignende tillitt som sentralbankene har hatt enerett på. Forskjellen er at mens sentralbanker styres av nasjonale myndigheter (til tross for lovfestet uavhengighet) er kryptovaluta distribuert. Denne distribuerte karakteristikken har to store fordeler.

For det første kan ingen ene og alene kan manipulere utstedelsen av BitCoins på samme måte som sentralbanker kan øke pengemengden for å dekke politiske behov. Enkelte proponenter av kryptovaluta ser på det som en måte å sikre individers frihet fra statlig undertrykking, mens andre ser det mer som en praktisk måte å «hedge» bort noe av risikoen som kommer av statlig kontroll på pengesystemet. På denne måten kan man se kryptovaluta som en måte å sikre seg mot kollaps i det tradisjonelle pengesystemet.

For det andre vil mange hevde at sentraliserte institusjoner (som sentralbanker) ikke evner å fange opp kompleksiteten som til enhver tid hersker i et økonomisk system. Dette argumentet kommer av mistroen til staters evne til sentral planlegging og det å avdekke de beste løsningene. Mer til poenget så ser mange kunnskap som så desentralisert og distribuert at ingen sentral myndighet vil klare å fange opp de nødvendige signalene for endring på samme måte som et marked gjør. Kryptovaluta som er basert på distribuerte nettverk er bedre egnet til nettopp dette formålet.

På et mer praktisk plan har kryptovalutaer et enormt potensial i å kunne håndtere transaksjoner på tvers av landegrenser og geografi og således bidra til høyere grad av finansiell inkludering. I dag koster det fort 20 USD å sende en penger fra Europa til Asia og kryptovaluta kan potensielt drive disse prisene ned mot null.

Rottegift og svindel

På den annen side av debatten finner vi investor Warren Buffet og CEO i JP Morgan Jamie Dimon. Buffet har ved gjentatte anledninger advart mot inventering i kryptovaluta generelt og BitCoin spesielt fordi de mangler en underliggende fundamental verdi til motsetning fra aksjer, obligasjoner, råvarer og andre investeringsklasser. «Orakelet fra Omaha» har beskrevet kryptovaluta som rottegift. Som leder for verdens største bank har Jamie Dimon vært skeptisk til kryptovalutaer fra starten og omtalte på et punkt disse som «en svindel» (en kommentar han senere delvis trakk tilbake. I likhet med Buffet er Dimon skeptisk til valutaens manglende underliggende verdi og de svingningene den utviser. Så langt har i hvert fall prisbevegelsen støttet deres felles syn.

En langt tøffere kritikk kommer imidlertid fra Nobelprisvinneren Paul Krugman. Krugman argumenterer med at mens alle andre innovasjoner i pengesystemer gjennom historien har vært preget av stadig lavere transaksjonskostnader, går kryptovalute i stikk motsatt retning. Han beskriver historien fra gull og sølv som var kostbare å utvinne og handle med, til papirpenger og senere kredittkort, nettbank og andre digitale betalingsmetoder som medførte adskillig lavere kostnader. Med dagens kryptovalutaer er utvinningskostnader og verifisering av transaksjoner i økende grad kostbart. Og dette er ikke noe vi enkelt kan fjerne, i følge Krugman, fordi det er måten vi sikrer tillit i et distribuert nettverk.

Det andre momentet Krugman trekker frem er knyttet til kryptovaluters underliggende implisitte verdi. Mens dollar har verdi fordi amerikanske myndigheter garanterer for det (eller som han sier: «cause men with guns says they have value»). Så mens et spekulasjonsangrep på en enkelt ordinær valuta (som George Soros sitt angrep på Bank of England i 1992) kan devaluere en valuta kraftig, vil den aldri miste sin verdi. Det kan imidlertid, i følge Krugman, skje med en kryptovaluta.

Rom for krypto

Selv om kryptovalutaer i seg selv er omdiskutert, satser flere store finansielle aktører på plattformer for å kjøpe og selge disse. Og det er mange trekk ved kryptovaluta som gjør det attraktivt for transaksjoner over landegrenser og direkte mellom mennesker. Videre tar det gjerne litt tid før markeder stabiliserer seg på en korrekt pris for ulike finansielle instrumenter. Og på den annen side betyr ikke prisen fra dag til dag så mye dersom man bruker eksempelvis BitCoin som transaksjonsmedium. Da kan du veksle fra USD til BitCoin til NOK på et brøkdels sekund og således ikke være så bekymret for endringer i prisen på BitCoin. I tillegg kan det fort komme tjenester fra tradisjonelle banker der de gjør transaksjoner på denne måten seg i mellom.

Men det store potensiale ligger nok mer i teknologien som gjør kryptovaluta mulig – nemlig blockchain (se en utmerket forklaring her). Det er også dette det internasjonale pengefondet IMF er mest opptatt av. Og det er verdt en egen bloggpost.