Når den beste AI ikke er den beste AI

Publisert: 29. juli 2020 kl 09.28
Oppdatert: 29. juli 2020 kl 09.31

Tor Wallin Andreassen er professor ved Norges Handelshøyskole og tilknyttet forskningssenteret Digital Innovation for Growth – DIG.

SYNSPUNKT. I dag gjør AI (artificial intelligence) at rattet vibrerer når bilen krysser en hvit eller gul kjørelinje. AI kan også foreslå investeringsalternativer og anbefale hvilken kandidat som bør få jobben. 

På denne måten bidrar AI til at vi tar bedre beslutninger: at vi justerer retningen på bilen, tar investeringsbeslutningen, og ansetter kandidater vi ellers ikke hadde vurdert. 

Felles for disse situasjonene er at AI gjør mennesket til den sentrale beslutningstakeren. En grunn er at mens AI er overlegen i å håndtere store mengder informasjon, er mennesker overlegen når det gjelder håndtering av uvanlige/kritiske situasjoner, som for eksempel uforsvarlig kjøring.

På den annen side: dersom det er AI som tar selve beslutningene, kan det gjøre at den menneskelige motivasjonen og konsentrasjonen synker.

Vi får med andre ord en avveining når det gjelder hvordan og hvor omfattende bruken av AI kan og bør være.

I en nylig studie fra Stanford Business School (Athey, Bryan, og Gans 2020) viser forskerne at en virksomhets beslutning om å bruke AI, eller hvor omfattende man skal trene AI, ikke bare er avhengig av hva som er teknisk mulig, men også hvordan AI påvirker sine menneskelige kollegaer.

Saken fortsetter under annonsen

Ideen om at å delegere beslutningsmyndighet til ansatte øker motivasjonen, er ikke ny. I tillegg vet vi at mennesker som skal ta beslutninger som regel samler inn mer informasjon for å ta bedre beslutninger. 

I studien deler forskerne AI inn i fire deler hvor henholdsvis AI eller mennesker har ansvaret: 

1.     AI har ansvaret:

a.     «Replacement AI»: dersom AI fungerer perfekt hver gang, kan det erstatte mennesker. Skaper ledighet og høye AI-trenekostnader

b.     «Unreliable AI»: når AI ikke er perfekt, må mennesker gripe inn og justere feilen. Krever høy kompetanse og konsentrasjon.

2.     Mennesker har ansvaret:

a.     «Augmentation AI»: mennesker beholder beslutningskontrollen. Gir kvalitet og motivasjon.

Saken fortsetter under annonsen

b.     «Antagonistic AI»: hvor et ikke perfekt AI trigger mennesker til kritisk tenking før hun beslutter. Utfordrer mennesker, men er krevende for konsentrasjonen.

For å illustrere rammeverket, kan man tenke seg en situasjon hvor en virksomhet skal ansette en ny leder. Dersom dagens praksis med å ansette ledere, bevisst eller ikke, får andre ledere til å ansette folk som ser ut som dem, vil AI som er trent med å finne kandidater med data fra slike ledere, sannsynligvis lære å etterligne denne skjevheten – og dermed gjøre lederne glade. 

Dersom det er AI som tar selve beslutningene, kan det gjøre at den menneskelige motivasjonen og konsentrasjonen synker

Men dersom lederne er klar over denne skjevheten og ønsker å redusere den, må de gjøre en innsats for å utvide AI-opplæringsdataene eller til og med kjøre eksperimenter – for eksempel å legge til kandidater fra helt andre høyskoler og universiteter som kanskje ikke har blitt vurdert før – for å samle inn de nødvendige dataene for å trene et objektivt AI-system.

Deretter, hvis partiske ledere fortsatt har ansvaret for beslutningsprosesser, kan et oppdatert og mer objektivt AI få lederne til å lese profilen på alle kandidatene og fremdeles velge å ansette den som ser mest ut som dem. 

Men siden dette ikke hjelper eieren å oppnå målet om å eliminere skjevhet ved ansettelser, er et annet alternativ å designe AI til å overstyre de som skal ta beslutningen. Nedsiden ved dette kan være en umotivert beslutningstaker.

Etter hvert som AI blir adoptert i ulike funksjoner i virksomhetene, vil det endre måten organisasjonene fungerer på.

Saken fortsetter under annonsen

Bedrifter og virksomheter i privat og offentlig sektor vil måtte tenke annerledes om organisasjonsdesign, arbeidstakers insentiver, hvor godt beslutningene fra arbeidstakere og AI er i tråd med virksomhetens mål, og om en investering i opplæringsdata for å forbedre AI-kvalitet vil ha ønskelige konsekvenser.

Den gode nyheten er at teoretiske modeller kan hjelpe organisasjoner til å tenke gjennom samspillet mellom alle disse valgene. 

Målet er at den beste AI skal være den beste AI, ikke bare rent teknisk, men også for virksomheten og de ansatte.