Advokaten 1
ESSÄ beslut som faller ut, och individuella lösni
ngar kan aldrig vara svaret på systematiska problem. Snarare är det så att individuella lösningar (eller rättningar) skapar följdproblem i systemet. För systematiska fel krävs systematisk rättning, och för att det ska vara möjligt måste algoritmiska beslut gå att överpröva på en övergripande nivå, som innefattar laglighetsprövning av hela systemet och dess underliggande kod. 2. Att det efter individuella domslut som faller ut till den sökandes fördel sker en genomlysning, och rättning, av kod, samt eftersökning och rättning av ytterligare fel som koden orsakat. Om en enskild får rätt mot ett algoritmiskt beslut bör ansvarig offentlig aktör också få ansvar för att gå igenom det system som föranlett felet, och felsöka det. Om felet härrör från inkorrekta indata så är felet troligtvis individuellt, men om felet kan härledas till felaktig kod, så bör det ligga på den offentliga aktörens ansvar att rätta till koden, samt att undersöka om koden resulterat i andra felaktiga beslut och erbjuda rättning också av dem, även om de besluten inte har överklagats. 3. Att bevisbördan för automatisering och systematik placeras på den part som har tillgång till algoritmen, och som har kunskap om de arbetsprocesser som omgärdat algoritmens implementering. Att som i dag placera bevisbördan på sökanden är helt orimligt, speciellt mot bakgrund att Kammarrätten i Stockholm förra sommaren (mål nr 259821) fastslog att digitalt material som är knöligt att ta fram faller utanför begreppet offentlig handling. Det är således i stort sett omöjligt för individer att bevisa sin rätt när ett algoritmiskt beslutssystem fallerar, om den offentliga aktören som tillämpat algoritmen inte lämnar ut den. 4. Att domare och domstolar får ökade resurser att satsa på digital kompetens för att kunna bedöma digital bevisning, samt att de får tillgång till testmiljöer där beslutsalgoritmer kan testköras och utvärderas. För att försäkra oss om fortsatt rättssäkerhet så måste Domstolsverket höja den digitala kompetensen hos domarkåren, och se till att de har möjlighet att bedöma den bevisning som anförs. Detta handlar inte bara om kompetens att bedöma lagligheten i beslutsalgoritmer, utan kan också handla om andra bevisfrågor gällande positioneringsdata (från mobilmaster) i brottmål, värdering av avkrypterad bevisning, förståelse av brottslighet i, och genom, kryptovalutor och virtuella världar, samt invändningar kring deepfake. Dessutom behöver vi säkra testmiljöer där utfall av olika algoritmiska beslutssystem kan simuleras och beslutsalgoritmernas laglighet kan utvärderas. att domstolen är blind har tidigare lyfts som en garanti för rättssäkerheten i samhället och symbolise5 SOU 2021:16 En väl fungerande ordning för val och beslutsfattande i kommuner och regioner ras av den ögonbindel som Justitia bär. Den markerar att hon är blind för inflytande och otillbörlig påverkan. Min forskning visar dock att den senaste tidens snabba digitalisering har lett till en annan typ av blindhet – där domstolarna i dagsläget är blinda för digital bevisning. Detta måste förändras. Jag menar att domstolarna måste öppna ögonen för samhällets digitalisering och lära sig att hantera, och rätta till, de eventuella fel som uppstår. Vi kan inte snubbla fram likt ”zombier” längre – utan måste öppna ögonen och se den digitala verkligheten för vad den är, och uppdatera rättssystemet för digitalisering. Jag hoppas att denna artikel kan vara startskottet för en diskussion kring digitaliseringens krav på rättssystemet och hur vi kan anpassa det för algoritmiskt beslutsfattande. Jag tror att det är avgörande att jurister är med i denna diskussion och deltar i den tekniska utvecklingen så att vi kan säkerställa att etiska överväganden görs, och att juridiken byggs in på rätt sätt i samhällets automatiserade och digitaliserade system. Detta är särskilt aktuellt då automatiserat beslutsfattande på kommunal nivå just har blivit lagligt, genom en lagändring den 1 juli 2022.5 Det är därför hög tid att vi diskuterar hur vi ska hantera de risker som det algoritmiska beslutsfattandet bär med sig. Charlotta Kronblad Forskare (postdoktor) vid House of Innovation, Handelshögskolan i Stockholm VI KAN INTE SNUBBLA FRAM LIKT ”ZOMBIER” LÄNGRE – UTAN MÅSTE ÖPPNA ÖGONEN OCH SE DEN DIGITALA VERKLIGHETEN FÖR VAD DEN ÄR, OCH UPPDATERA RÄTTSSYSTEMET FÖR DIGITALISERING. ADVOKATEN NR 6 • 2022 45