Advokaten 1
» Christian Åhlund. att algoritmerna kan bidra ti
ll att inte bara spegla fördomar, utan också att föröka dem. När Google och Facebook lät sina datorer, utifrån enorma mängder data i form av namn eller bilder, lista ut vem som skulle få olika platsannonser blev resultatet, föga förvånande, mycket traditionellt. Män fick erbjudandena om höga chefsuppdrag eller traditionella hantverkarjobb, medan kvinnorna fick annonser om lägre chefsbefattningar eller traditionella kvinnoyrken. På motsvarande sätt har självlärande datorer med uppdraget att bedöma en låneansökan hittat lösningar som kan slå hårt mot enskilda. AI:n kom nämligen fram till att postnummer var den bästa parametern att gå efter, helt enkelt för att personer som bodde i välbärgade områden både fått fler lån tidigare och förmodligen också förmått betala tillbaka dem. Med allt självständigare datorer blir frågan också vem som egentligen har ansvaret för misstag och diskriminering. Det är en svår fråga att svara på, säger Karl de Fine Licht. – Det vi måste göra i dag är att byg– Under de senaste ett eller två åren har policyskapare och politiker blivit allt mer medvetna om att de måste fatta beslut och ta steg för att fastslå vilka värden som är viktiga och vilka som inte är det, säger hon, och konstaterar att tekniker och systemutvecklare redan talat om detta i många år. Den ökade medvetenheten märks bland annat på att EU-kommissionen i slutet av 2018 tillsatte en expertgrupp med uppdraget att skapa etiska riktlinjer för AI-användning. Virginia Dignum är medlem i gruppen, som ”Det här blir en väldig utmaning för rättssystemet, inte bara att använda de här möjligheterna som AI ger, utan rättssystemet måste också se till att producera reglering ga en infrastruktur, institutioner, som fördelar ansvar för de här sakerna. Annars riskerar vi att hamna i en situation där det liksom inte finns någon att utkräva ansvar ifrån, säger han. som är användbar och effektiv samtidigt.” christian åhlund levererade sina riktlinjer i april i år. – Expertgruppens riktlinjer är just riktlinjer, inte regleringar eller ens rekommendationer, utan ger en riktning och förslag på vilka områden som är viktiga att se på, förklarar Virginia Dignum, och tillägger att det också kan behövas ytterliga regleringar på EU-nivå eller inom staterna. En av grundstenarna i riktlinjerna är att all AI-användning måste följa gällande lagar. Men räcker dagens lagstiftning till för den nya tekniken? Frågan har diskuterats i expertgruppen. – I många fall är de tjänster och produkter som skapas med AI sådana att vi redan har regler för ansvar och konsumenträttigheter. Då behöver vi inte krångla till saker mer än nödvändigt, säger Dignum. Hon exemplifierar med en självkörande bil. Självklart BEHÖVS INSTITUTIONER Virginia Dignum, professor vid Umeå universitet, forskar i social and etisk artificiell intelligens. Hon upplever att medvetenheten kring AI:s potentiella risker har ökat i samhället på senare år. ska den följa de regler som finns i dag för bilar, kring säkerhet och ansvar om något går fel till exempel. Däremot kan det förstås också komma att behövas särskild lagstiftning just kring AI, påpekar Virginia Dignum. Expertgruppen, som består av 52 personer, ska nu ta Etiska riktlinjer för pålitlig AI EU-kommissionens expertgrupp för AI presenterade i april sina riktlinjer för hur man kan bygga en pålitlig och etisk AI. FOKUS: AI OCH RÄTTSSTATEN E 36 36 xpertgruppen består av 52 experter från EU-länderna, som tillsammans tagit fram en rad riktlinjer för den fortsatta användningen av artificiell intelligens. Gruppen konstaterar att AI inte är ett självändamål, men en lovande metod att öka mänsklig blomstring och skapa nyttigheter såväl för individer som för samhället. AI för dock också med sig vissa risker, som måste hanteras. Riktlinjerna är ett steg i att göra detta. Pålitlig AI präglas enligt expertgruppen av tre komponenter, som ska beaktas under hela systemens livslängd: 1. AI ska vara lagenlig, följa alla gällande lagar och regleringar (denna del har gruppen hittills inte fördjupat sig vidare i). 2. AI ska vara etisk, och säkra att etiska principer och värden efterlevs. 3. AI ska vara stabil, såväl tekniskt som socialt. ADVOKATEN NR 4 • 2019 FOTO: CARL JOHAN ERIKSON