Advokaten 1
•FOKUS• - Han tar inte ställning till uppmaningen
i sig att pausa system med människoliknande intelligens kan skapa betydande risker för samhället och mänskligheten, vilket en stor mängd forskning visat, och ledande AI-labb erkänt.” Så inleds ett brev från omkring ett tusen forskare och 24 tekniker, publicerat i mars i år. I brevet, som fått mycket medial uppmärksamhet, uppmanar undertecknarna alla världens forskare och utvecklare till sex månaders paus i forskningen kring AI-system mer utvecklade än företaget Open AI:s chattbott ChatGPT4. Bland alla undertecknarna till uppropet reagerade många särskilt på AI-entusiasten Elon Musks namn. Musk var själv med och grundade företaget bakom ChatGPT, OpenAI, men lämnade bolaget 2018. Syftet med pausen ska, enligt brevskrivarna, vara att hinna ta fram och implementera en gemensam uppsättning regler för AI-utvecklingen, så att den är säker, och ett kontrollsystem som ska övervaka att reglerna följs. Uppropet kom vid en tidpunkt när AI, artificiell intelligens, redan var på allas läppar. Och just ChatGPT är en viktig förklaring till det växande intresset. En gratisversion av chattbotten släpptes i november 2022, och sedan dess har den uppdaterats flera gånger. För varje uppdatering har botten blivit allt ”smartare” och mer människolik i sin förmåga att söka, sammanställa och presentera information. Intet mänskligt är främmande för den nya digitala superstjärnan, inte heller juridik. I Advokaten nummer 3 berättas att ChatGPT klarat den allmänna advokatexamen i USA, med goda resultat. Bottens förmåga att formulera unika och människoliknande analyser och sammanställningar tvingade universitet och skolor att något yrvaket se över examinationsformer och uppsatsskrivande, då studenter och elever snabbt hittade en ny bästis som kunde skriva både hemtentor och PM, med goda resultat. ChatGPT är samtidigt bara toppen på ett isberg. Vid sidan av denna språkbaserade modell finns också bildverktyg, musikverktyg och annan teknik som blixtsnabbt kan skapa unika verk utifrån vad som tidigare skapats av människor. Perspektiven är svindlande. Eller, som ChatGPT:s och Microsofts AI:s chefsingenjör Shital Shah själv uttryckte det på Twitter: ”Det är som att vakna upp och få nyheten om en stor kärnvapenexplosion och inte veta vad man ska tycka om det, men veta att världen aldrig kommer att bli sig lik igen.” Är ett tveeggat svärd – Jag har i många år varnat för riskerna med AI. Det finns oerhört många risker. Samtidigt som det finns oerhört positiva saker med AI. Det är verkligen ett tveeggat svärd, säger Stanley Greenstein, docent i rättsinformatik vid Stockholms universitet. Vi vet att data går in och vi får data som går ut, men vi vet inte exakt vad som händer där inne. Att vi vet det är ju A och O om vi ska börja använda AI i till exempel myndighetsbeslut. evelina anttila AI-utvecklingen eftersom han inte känner till de bakomliggande syftena, men han är positivt inställd till att riskerna med AI får ökat medial uppmärksamhet. AI-skeptiker lyfter gärna upp de mest drastiska riskerna, som att den artificiella intelligensen så småningom kommer att manövrera ut människan och ta över kontrollen. Där är vi förstås inte än. I stället lyfter Stanley Greenstein, liksom ChatGPT (se artikel på s. 36), fram farorna i att AI tränas på snedvridna data och därmed kommer fram till skeva beslut. Även människor fattar förstås beslut som är baserade • VAD? • När hela samhället talar om AI ville vi ta reda på var juridiken står i förhållande till teknikutvecklingen. En annan viktig fråga var hur långt advokatbyråerna kommit i tillämpningen av och rådgivningen kring AI. • HUR? • Telefonintervjuer med två ledande forskare på området juridik och AI, samt en tidigare advokat som nu arbetar med tech-investeringar. Tre advokater på affärsjuridiska byråer intervjuades, och tre byråer fick berätta om sina konkreta AI-satsningar. Dessutom fick huvudpersonen själv, AI i form av ChatGPT, ge sin syn på saken. på felaktiga data och fördomar. Problemet är att AI kan göra det i större skala och så mycket snabbare, påpekar Stanley Greenstein. AI är dessutom mycket bra på att hitta korrelationer mellan datapunkter, men korrelation är inte desamma som orsakssamband. Här blir det lätt en krock med det juridiska sättet att resonera, där just orsakssamband är centrala. – När man släpper lös en algoritm på ett dataset, som vilka som gjort sig skyldiga till mord, så kan den komma fram till att de som är mest benägna att begå mord är personer med storlek 42 i skor. Det finns absolut inget rationellt i det ur ett juridiskt perspektiv med orsakssamband i fokus. Men det kanske är sant, utifrån de data som använts, säger Stanley Greenstein. Om det då saknas en misstänkt person i en mordutredning, vore det från ett polisiärt perspektiv logiskt att börja med alla personer med skor i storlek 42, konstaterar Stanley Greenstein. Detta kan i sin tur leda till att rättsliga principer successivt vattnas ur. Ett annat område där AI:s logik krockar med juridikens krav är avsaknaden av möjligheten att förklara beslut. – Ju mer komplex AI blir, desto större blir dess effektivitet. Det är just denna effektivitet som ökar vår benägenhet att använda AI för beslutsfattandet i många sammanhang trots riskerna. Där ser jag en fara i att vi blir så besatta av att effektivisera samhället att vi tappar den mänskliga översynen och förklarbarheten, säger Stanley Greenstein. Vet inte vad som händer Även Evelina Anttila, tidigare advokat och i dag vd på Wellstreet, ett investeringsbolag med fokus på teknik, tar upp svårigheten att förstå de processer som leder fram till AI-genererade beslut, det som ofta kalllas ”den svarta lådans problematik”, eller på engelska ”black box”. – Vi vet att data går in och vi får data som går ut, men vi vet inte exakt vad som händer där inne. Att vi vet det är ju A och O om vi ska börja använda AI i till exempel myndighetsbeslut. Vi måste förstå hur de här AI-modellerna har byggts upp och vilka data de har tränat på, säger Evelina Anttila, och fortsätter: – Det är här alla intressanta juridiska knäckfrågorna kommer in. Vi behöver verkligen se till att systemen är tillförlitliga, att de kommer fram till rätt beslut. Det måsADVOKATEN #4 2023