Advokaten 1
» RÅDGIVARANSVAR OCH AI Ansvaret ligger på använd
aren AI, och inte minst självlärande maskiner, väcker nya frågor kring advokatens ansvar som rådgivare. Advokaten och adjungerade professorn Carl Svernlöv har tillsammans med en student fördjupat sig i vad som gäller för advokatens ansvar när AI används. FOKUS: AI OCH RÄTTSSTATEN C Carl Svernlöv. arl Svernlöv, verksam vid den internationella byrån Baker McKenzie, som använder en rad AIlösningar, ser stora möjligheter i AI för advokaterna och för rättsstaten. Men, som Svernlöv konstaterar: AI är ett verktyg, ingen universallösning. Som med alla verktyg hamnar ansvaret på den som använder det. För att användaren ska kunna ta det ansvaret är det centralt att verktygen är transparenta och att användarna förstår dem, påpekar Carl Svernlöv. I en rättsstat kan det få stora konsekvenser om detta brister, till exempel genom att AI-lösningar bygger på bristfälliga eller skeva data. Carl Svernlöv menar, precis som Christian Åhlund (se artikel på s. 34) att AI då kan bidra till att strukturella orättvisor befästs. För advokatens del kan bristande förståelse för verktygen och de data de bygger på, innebära att rådgivningen blir ofullständig. Det drabbar förstås klienten, som kan hålla advokatbyrån ansvarig för vårdslös rådgivning. Hur ska då advokaterna resonera kring att ta in AIverktyg? Carl Svernlöv konstaterar att advokater, liksom andra rådgivare, huvudsakligen är skyldig att använda beprövade metoder. – Det här metodansvaret gör det klokt att komma överens med klienten om ansvaret för om något skulle gå snett när man använder självlärande AI, åtminstone MINSKA RISKERNA Så kan du minska riskerna för att anses oaktsam när AI används: l Välj ett etablerat AI-system med små felmarginaler. l Avtala med klient om att artificiell intelligens ska användas i due diligence. l Följ programmerarens rekommendationer angående mänsklig input och stickprovskontroller. l Presentera tydligt AI-systemets begränsningar och risker för klienten på ett pedagogiskt sätt. l Håll personalen utbildad i hur systemet används och kontrolleras. Så kan du minska risken för att klienten missförstår resultatets tillförlitlighet vid användning av AI: l Infoga avsnitt om AI-systemet som arbetsmetod i DD-rapportens introduktionsdel. l Erinra om felmarginaler och resultatets tillförlitlighet i anslutning till att råd angående fortsatta åtgärder lämnas klient. Källa: Svernlöv, Carl; Magnusson, Matilda: Rådgivningsansvar vid användande av artificiell intelligens, Balans nr 3 2018. till dess att användningen av självlärande system har blivit allmänt vedertagen, säger Carl Svernlöv. Metodansvaret är dock inte ensamt avgörande för om juridisk rådgivning ska anses som vårdslös eller inte. I en artikel i tidskriften Balans, skriven tillsammans med Matilda Magnusson, konstaterar Carl Svernlöv att det också har betydelse vilka försiktighetsåtgärder som vidtagits i övrigt. ”Vid användande av artificiell intelligens bör det därmed vara av stor vikt att ett tillförlitligt system används av personal som utbildats i hur systemet ska hanteras. Systemens felmarginaler är ofta lägst då undersökningen förenas med stickprovskontroller och liknande mänsklig input vilket därför rekommenderas”, skriver Svernlöv och Magnusson, som också pekar på att det är viktigt att informera klienten om att byrån använder AI i ärendet. Utvecklingen kan naturligtvis göra att AI i framtiden blir en självklar arbetsmetod för advokatbyråer, konstaterar Carl Svernlöv. Kanske kommer det rent av att kunna anses oaktsamt att inte använda dessa verktyg. I dagsläget behövs dock, enligt Carl Svernlöv och Baker McKenzie, regleringar av ansvarsfrågorna kring AI och självlärande maskiner. Det handlar då särskilt om vem som är ansvarig för kontrakt som ingåtts av AI-verktyg och vem som är ansvarig för förluster genom förutsebara AI-aktiviteter gentemot oförutsebara AI-aktiviteter. Förutsebara AI-aktiviteter åsyftar ett utfall som är förprogrammerat i AI-verktyget och därmed har kunnat tas med i beräkningen av förluster. På samma spår är oförutsebara AI-aktiviteter sådana aktiviteter som inte funnits med i den förprogrammerade beslutsramen (alltså som AI-verktyget kommit fram till ”självt”) och därmed inte har kunnat tas med i beräkningen av förluster. En annan viktig punkt är vem som har ansvaret för att data som används för att lära upp AI-system inte har metodfel eller andra felaktigheter som påverkar slutresultatet. ¶ 48 FOTO: SUSANNE FESSÉ, ISTOCK