Analyse:  Hvad vi kan lære af den australiske Robodebt- skandale

Da den 22 årige Jared Madgwicks  begik selvmord i 2019 (læs om sagen her) efter at have været udpeget af det australske vedfærdssystem som skyldner, var han ikke kun en blandt mange, der var blevet forkert udpeget, men han er også et symptom på, hvordan algoritmer ikke er bedre end det, der lægges ind i programmeringen af dem. Dermed taler hans ulykkelige skæbne ind i en problematik, der ikke kun er fokus på, når det kommer til den digitale udviklings konsekvenser for demokratiet, men også om, hvilke faldgruber, der er i AI og algoritmer. Den understreger, at teknologi aldrig er mere retfærdig end de algoritmer, den er kodet med og hensigten bag den. 

Den australske regering indførte i 2015 et nyt system, der skulle screene modtagerne af offentlige ydelser eller skyldnere ved blandt andet at sammenkoble et beløb, der blev indberettet hver anden uge af borgerne selv med blandt andet skatteregistreringer. Systemet skulle erstatte et system, hvor det var mennesker, der lavede en løbende vurdering og skulle i sær gøre det mere retfærdigt og objektivt. Det modsatte skete. Allerede i løbet af det første år med det nye system fandt systemet en tidobling af tilfælde af snyd med offentlige ydelser. Der var bare den hage ved de fund, at de var baseret på et system, der ikke fungerede. Flere tusinde blev påbudt at tilbagebetale på baggrund af et system, der ikke havde taget højde for noget så banalt som variationer i folks indberetninger – altså kunne man for eksempel blive erklæret offentlig skyldner, hvis man ikke indberettede eksats samme beløb hver 14. dag. Systemet var kun programmeret til at tage højde for ét beløb. 

Man ville med systemet – udover at spare ressourcer – sikre en fast procedure og objektiv behandling og regeringen havde i knap fire år fuld til det som et objektivt system, sådan som man ofte anser algoritmer for at være.

Men lad os kort dvæle ved netop den tese, at algoritmer skulle være objektive.

Du kender algoritmen fra hverdagen på digitale platforme. Når du klikker meget på BT Sporten i din daglige gennemgang af eksempelvis dit Facebook-feed, vil du få flere lignende opslag og annoncer, der relaterer til sport eller BT. Din digitale opslagstavle formes efter din adfærd og for at den kan det, skal den være programmeret til det. 

Med den viden kan man tro, at man selv er ansvarlig for sin algoritme – den digitale vej. Men der går noget forud. Nogen har fortalt systemet, at hvis du klikker på A, så skal B dukke op efterfølgende. Hvis du går B-vejen, skal C dukke op. 

Noget går med andre ord forud og bestemmer en retning. Din retning, systemets retning, systemets vurdering og heraf konsekvenser for dem, det vurderer. 

Probelemet er bare, at et system som en algoritme ikke er bedre end dem, der programmerer det, og man kan derfor stille spørgsmålstegn ved objektivitetskriterierne.

Lad os bruge et – for mange – nærværende eksempel:

Spørg Siri hvem Gud er og forestil dig, at Siri er fuldstændig uafhængig selv skal finde svaret. Hvor skal Siri finde svaret, hvis det ikke skal findes i den database, Siri har at lede i. Spørgsmålet er så, om Siri selv har skabt den database af svarmuligheder, eller om de er programmeret af – ja rigtigt – et menneske. Ville man med store rimelighed kunne antage, at Siri derfor er objektiv/uafhængig/uvildig?

Udfordringen er ikke nødvendigvis, at Siri naturligvis ikke er objektiv, derimod er det at tro det. Manglende viden og refleksion kan med andre ord gøre det nemt at skabe en menneskelig eller systemisk adfærd, der har store konsekvenser for mennesker. 

Se en sjov gennemgang af hvad en algoritme er her

Algoritmer er baseret på AI – kunstig intelligens. Et felt der har uanede muligheder, som mange virksomheder og tjenester er baseret på. Den kunstige intelligens er udviklet af mennesker, men kunstig intelligens genererer også ny kunstig intelligens. Altså AI-genereret AI. Men baseret på en introduktion. 

Algoritmer og AI er en stor del af vores hverdag og den udvikling, der sættes turbo på. 

Én af de vigtigste sætninger i Netflix-dokumentaren ”The Social Dilemma” var, at havde man vidst, hvordan udviklingen ville være, så ville man have programmeret algoritmerne anderledes. Digitale platforme som Facebook, Youtube og Google har anvendt algoritmer i det de kalder bedste mening, men det kom ud af kontrol på et tidspunkt. Læs evt. anmeldelsen af The Social Dilemma og de vigtigste temaer, du burde tage med dig HER: 

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply

Your email address will not be published. Required fields are marked *