På Norsk

Bruk av kunstig intelligens (KI) kan bidra til å sikre effektivitet og god kvalitet i prosesser blant annet i offentlig sektor. Noen av disse løsningene er slik at vi ikke kan beskrive hvordan de egentlig virker, f.eks. hvorfor en gitt inndataverdi gir et bestemt resultat. Dette kalles ofte «svart boks»-problemet, og kan utgjøre et hinder for at deltakelse i å forme, bruke og overvåker bruken av kunstig intelligens i tjenesteytingen.

Den norske regjeringen fremmer ansvarlig bruk av kunstig intelligens i offentlig administrasjon med ønske om å lede an i utviklingen av menneskevennlige og pålitelige løsninger. Ansvarlig bruk av KI innebærer å sikre forståelighet og ansvarlighet. Dette innebærer at løsningene må kunne beskrives med hensyn til deres tilstand, informasjonen de inneholder, egenskaper og begrensninger. Dessuten må det være mulig å få informasjon om saksbehandlingen og innsikt i hvorfor en beslutning ble som den ble. Forståelighet og ansvarlighet kan hjelpe brukerne til å bedre forstå, stole på og effektivt styre den nye generasjonen KI-applikasjoner.

Prosjektet fokuserer på «svart boks»-problemet og bidrar dermed til ansvarlig og pålitelig bruk av KI i digitaliseringen av offentlig sektor. Det unike ved prosjektet er at vi retter forskningen mot ikke-eksperter, ikke kun spesialister innen kunstig intelligens. Prosjektet tar et menneskesentrert perspektiv som imøtekommer ulike gruppers behov, inkludert borgere, saksbehandlere, mellomledere og beslutningstakere. Prosjektet inkluderer a) design, prototyping og evaluering av verktøy som gir ikke-eksperter mulighet til å få innsikt i KI-løsninger, b) formalisering av design-innsiktene inn i design-prinsipper, og c) kompetansebygging gjennom samarbeid mellom akademia og offentlig sektor nasjonalt og internasjonalt.