Advokaten 1
sig an uppdraget att dels undersöka om de rekomme
ndationer som ges i slutet av riktlinjerna är tillämpliga och lämpliga för olika områden och branscher, dels att skapa en lista med rekommendationer till medlemsstaterna om regleringar och investeringar på området. Men för att upprätthålla lagar behövs förstås också institutioner som vi känner tillit till. Och det är inte omöjligt att vi behöver skapa sådana, menar Virginia Dignum. – Jag tror att vi behöver certifieringsorgan, med tillräckliga tekniska kunskaper, som kan kontrollera systemen, och sedan utdela något slags godkännande av dem, säger hon, och jämför med livsmedelsindustrin. – Vi har en massa produkter i snabbköpet som sägs vara ekologiska, fair-trade eller annat. Som konsument vet du inte riktigt om det är sant eller inte, men du litar på att det finns institutioner som kontrollerar detta. Vi behöver sådana människor som kan intyga att ett system upprätthåller en viss nivå av skydd för personuppgifter eller att data inte är snedvridna av bias, och att resultaten är rättvisa, fastslår Virginia Dignum. Hon tillägger att detta naturligtvis är komplext och svårt, bland annat för att vi inte har någon exakt definition av vad rättvis betyder i dessa sammanhang. Även detta behöver alltså regleras. Dessutom utvecklas datasystemen hela tiden. Att ett system är rättvist i dag behöver inte betyda att det är det imorgon. – Det här behöver vi tänka kring. Men jag tror att det här är rätt väg att gå. Du kan inte förvänta dig att konsumenterna på egen hand ska ta ställning till dessa frågor, precis som du inte kan räkna med att de åker ut till bondgården för att kontrollera att hönsen är frigående, säger Virginia Dignum. ALGORITMER KAN DISKRIMINERA Även Europarådet har intresserat sig för frågorna kring AI. I februari i år bjöd Europarådet och det finländska ordförandeskapet in till konferens i Helsingfors för att diskutera AI:s påverkan på de mänskliga rättigheterna, rättsstaten och demokratin. Den bild som växte fram under inläggen från politiker, höga tjänstemän och forskare var klar: AI och algoritmiskt beslutsfattande innebär stora möjligheter för samhället, men också helt nya utmaningar. Inte minst för att AI ofta kommit att användas i förhållande till samhällets mest sårbara individer, de som behöver statens hjälp. Advokat Christian Åhlund, tills nyligen ordförande för Europarådets organ ECRI, European Commission against Racism and Intolerance, medverkade vid konferensen. Han konstaterar att risken för diskrimineringen framför allt märks på områden där det redan förekommer diskriminering, som antagning till högre utbildning eller tillgång till bostäder. Fenomenet har fått ett namn: algoritmisk diskriminering. Professor Frederik Zuiderveen Borgesius vid Amsterdams universitet har på uppdrag av ECRI gått igenom hur AI kan riskera att skapa diskriminering och hur detta kan förhindras. Han ser antidiskrimineringslagstiftning och dataskyddslagstiftning som de viktigaste juridiska medlen för att förhindra algoritmisk diskriminering. Zuiderveen Borgesius vill också utrusta diskrimineringsombudsmännen med mekanismer för att övervaka hanteringen av AI. – För mig låter detta främmande, det är ju traditionellt inte någon materia som de har haft. Men visst går det att inrätta särskilda avdelningar för det också, säger Christian Åhlund, som anser att lagstiftningen släpar efter ordentligt på detta område. – Det här blir en väldig utmaning för rättssystemet, inte bara att använda de här möjligheterna som AI ger, utan rättssystemet måste också se till att producera reglering som är användbar och effektiv samtidigt, säger han. AI Artificiell intelligens, eller AI, innebär att datorn får härma det mänskliga tänkandet och hitta samband och avvikelser eller själv lära sig av de problem som ska lösas. Man utnyttjar alltså datorns förmåga att snabbt gå igenom stora mängder data för att låta den hitta samband och ”se” mönster på ungefär samma sätt som en människa skulle göra. Det kan handla om till exempel mönsterigenkänning, bild analys eller talförståelse. En form av AI kallas maskininlärning. Datorn får då själv pröva sig fram till ett sätt att lösa det problem som presenteras. I djup maskininlärning har man tagit ytterligare ett steg och låter datorn själv skapa program för att lösa problem. För att uppnå punkt 2 och 3 ska AI, enligt expertgruppen, vila på följande principer: l Respekt för människans autonomi l Förhindrande av skada l Rättvisa l Förklarbarhet. Gruppen listar också en rad faktorer som bör prägla AI-användningen i praktiken: l Mänsklig kontroll och översyn l Teknisk stabilitet och säkerhet l Skydd för privatlivet och datasäkerhet l Transparens ADVOKATEN NR 4 • 2019 l Mångfald, icke-diskriminering och rättvisa l Miljömässig och social hållbarhet l Möjlighet till ansvarsutkrävande. För att uppnå allt detta krävs att både tekniska och icke-tekniska metoder tas i bruk. Några av de icke-tekniska metoderna är, enligt expertgruppen, reglering, standardisering, uppförandekoder, certifiering och utbildning. Metoderna behöver fortlöpande utvärderas. Expertgruppen har också tagit fram en checklista som nu ska testas och utvärderas. Gruppen ska också lämna rekommendationer om regleringar och investeringsbehov till kommissionen. ¶ » 37 37