Kunstig intelligens: Sådan undgår vi de værste faldgruber

Hvad skal myndighederne være særligt opmærksomme på, når der anvendes kunstig intelligens til løsning af velfærdsopgaver? Det har vi spurgt fire eksperter og en politiker om.

Brug af kunstig intelligens kræver demokratisk debat

Johan Busse, formand for Dataetisk Råd og borgerrådgiver, Københavns Kommune

– Kunstig intelligens ændrer den måde, vi driver myndighed på, og det kræver derfor en demokratisk debat om, i hvilket omfang vi skal benytte algoritmer. Kunstig intelligens bygger på borgernes data, og de skal være med på, at man bruger deres oplysninger. Vi kan dog ikke lade det være helt op til borgerne at bestemme, for så ville ingen fortælle Skat, hvor meget de tjener. I sager med sårbare børn og unge siger forældrene heller ikke altid ja til, at sagsbehandleren må bruge deres data, og derfor har myndighederne adgang til nogle data. Vi skal også være åbne om, hvilke oplysninger vi bruger til kunstig intelligens.

– Myndighederne bør samtidig være tilbageholdende med at bruge hjælpeværktøjer til vurderingsmæssige opgaver, for man risikerer, at beslutningsstøtten overbeviser socialrådgiveren, selv om hun med sin faglighed ser noget andet. Især hvis den kunstige intelligens betyder, at socialrådgiverne får flere sager, fordi den hjælper dem til at vurdere hurtigere. Eller hvis de ikke tør gå imod algoritmens forslag, fordi de så skal forsvare deres beslutning op imod en computers matematiske logik.


Algoritmer må ikke blive en sort boks

Ditte Brøndum, næstformand, Dansk Socialrådgiverforening

– Selv om jeg er skeptisk over for dele af den aktuelle udvikling, mener jeg ikke, at vi skal afskrive algoritmer. Men vi skal i højere grad inddrage medarbejdere og borgere i, hvordan algoritmerne bliver brugbare, forståelige, meningsfulde og tillidsskabende. Det bør være et klart krav, at algoritmer bliver udviklet i dialog med fagpersoner og borgere, så de understøtter fagligheden og ikke ender med at underminere den.

– Som fagpersoner skal vi have kompetencer til at gennemskue algoritmer, forholde os kritisk og fremme de gode løsningsforslag. Det er også afgørende for borgerens retssikkerhed, at de kender de oplysninger, som deres sag bliver afgjort på baggrund af. Algoritmer må ikke blive en sort boks for hverken socialrådgiver eller borger.


Risiko for at reproducere skævheder

Helle Antczak, docent, socialrådgiveruddannelsen, Københavns Professionshøjskole

– Når vi forsøger at styre fremtiden ved at se i bakspejlet, som man gør i kunstig intelligens, slår man på en måde den ægte fremtid ihjel. Det er den skandaleombruste Gladsaxe-model, som blev stoppet, et eksempel på. I Gladsaxe fik man den idé, at man kunne screene alle børnefamilier med en profileringsalgoritme, så man tidligt kunne opdage børn, som havde brug for hjælp. Man identificerede 44 mulige problematiske punkter ud fra blandt andet ledighedshistorik, etnicitet, sprog, tidligere underretninger og forældrenes eventuelle psykiatrihistorie.

– Der kunne være gode faglige begrundelser for at arbejde på den måde, men der var også mange problematiske ting. Algoritmen skulle trænes på tidligere sager, hvor man ikke havde opdaget børn med problemer i tide, men datasættet var for småt, og man kunne komme til at gentage bias. Der var for eksempel mange flere børnesager blandt ledige familier, men det kunne være, at forældre med flere ressourcer havde søgt privat behandling, og data fra de familier indgik så ikke i algoritmen. Så reproducerer man en skævhed, og når man senere fodrer algoritmen med de nye data, vil det gentages, fordi man ikke fik fat i de bedre stillede familier. Den risiko skal myndighederne være opmærksomme på.


Man skal være skarp på, at borgernes rettigheder overholdes

Rikke Frank Jørgensen, seniorforsker, Institut for Menneskerettigheder

– Myndighederne skal tage højde for, at kunstig intelligens kan presse borgernes retssikkerhed, som blandt andet er baseret på, at det er transparent, hvorfor en sag er blevet vurderet på en given måde. Samtidig betyder databeskyttelseslovens princip om dataminimering, at sagsbehandlere kun må indsamle de data, som er nødvendige for at afgøre en sag, mens en kunstig intelligens bliver bedre, jo flere data den bygger på. Modellen skal også naturligt vægte nogle data, og samtidig siger forbuddet mod diskrimination, at køn, etnicitet og handicap ikke må vægte negativt. Så selv om en model kan tegne et mønster i forhold til for eksempel etnicitet, må den ikke lægge vægt på det.

– Jeg mener godt, at man kan anvende kunstig intelligens til at støtte sagsbehandleren med velfærdsopgaver, men man skal gå varsomt frem, og både i projektdesign og implementering skal man være skarp på, hvordan man vil sikre, at borgernes rettigheder overholdes. Der er bias alle steder, også hos mennesker, men når man sætter strøm til, kan de spredes til hundredvis af afgørelser.


Kræv dokumentation for, at systemet virker

Therese Moreau, journalist, Version2/DataTech

– Myndighederne skal vide, at ingen forskning underbygger, at kunstig intelligens kan forudsige borgeres livsudfald eller udsathed. Tværtimod peger adskillige store studier på, at det ikke rigtigt kan lade sig gøre, i hvert fald ikke med den nuværende teknologi og viden. Man kan godt se, hvordan det rent statistisk sandsynligvis vil gå en gruppe af borgere, men man kan ikke køre det ned på individniveau.

– Hvis man tager kvinder og uddannelse og går 100 år tilbage, var jeg næppe kommet i gymnasiet. Hvis man baserede en kunstig intelligens på det i dag, ville den sige, at der ikke var grund til at investere i mig. Men tiden går, og samfundet udvikler sig, så en kunstig intelligens skal hele tiden opdateres, og det sker ikke altid. Derfor bør myndighederne overveje, om de køber en god fortælling, eller om det rent faktisk virker. Det ville jeg bede om dokumentation for ved ethvert system. Både for borgernes skyld, og for de socialrådgivere, som vil blive influeret af teknikken i deres arbejde.


I regeringens nye digitaliseringsstrategi lægges der op til at styrke brugen af data og kunstig intelligens i det offentlige. Pt. har 16 procent af kommunerne taget forskellige former for kunstig intelligens i brug.

Læs ’Danmarks digitaliseringsstrategi. Sammen om den digitale udvikling’ på regeringen.dk