Advokaten 1
•FOKUS• information används, vad man vill kunna a
nvända den till och hur ansvaret fördelas. Det är ju inte egentligen nya frågor. Men det gäller ju att ha en förståelse för hur tekniken fungerar för att också kunna förstå var de rättsliga problemen finns, säger han. Utöver de klassiska upphovsrättsliga frågorna och ansvarsfrågorna pågår också ett omfattande lagstiftningsarbete inom EU på området AI. Och nya regler innebär också nya behov av advokattjänster. Inte minst tror Mikael Satama Granberg att den klassificering som EU:s planerade förordning (läs mer längst ner på sidan) bygger på kommer att väcka många frågor. – Redan definitionen av vad AI ska vara har ju varit en diskussionspunkt i den föreslagna regleringen. Alltså vad ska bedömas som AI-system? Det kommer att vara väldigt mycket frågor som handlar om att definiera vad man menar, säger han, och tillägger att klassificeringarna blir viktiga eftersom de styr vad som är förbjudet och vilka regler som gäller för en viss verksamhet. Även Björn Johansson Heigis ser att klienterna kommer att behöva stöd kring den planerade AI-förordningen. Regleringen lägger på de klienter som arbetar mycket med AI betydande skyldigheter att dokumentera, förklara och beskriva hur AI:n fungerar och vilka risker den medför. – Vi kan hjälpa till med riskhanteringen. Men det krävs också ett väldigt nära samarbete med dem som förstår tekniken för att få till det på ett bra sätt, fastslår han. Redan nu, innan förordningen antagits, finns det skäl att lyfta fram de kommande reglerna för företag som använder eller utvecklar AI, anser Björn Johansson Heigis. – Vi upplyser våra klienter om att reglerna är på gång och att det kan vara bra att se till att man redan håller sig på rätt sida om dem, säger han. Förutom AI-förordningen arbetar EU också med ett l Oacceptabel risk – teknologier som på olika vis hotar människors säkerhet, försörjningsmöjligheter och rättigheter. Dessa system förbjuds helt. Specifikt nämns system som stater kan använda för social poängsättning och leksaker som via röstassistans uppmuntrar till farligt beteende. l Hög risk – här återfinns en mängd verksamheter samt vissa fysiska produkter. EU-kommissionen föreslås även kunna lägga till områden när behov uppstår. Högrisksystemen föreslås få särskilda krav på tillsyn och registrering för att få användas inom EU. l Begränsad risk – minimala transparenskrav för system som chattbottar i syfte att personer görs medvetna om att de interagerar med en algoritm. direktiv om skadeståndsansvar, där leverantörer av AI-tjänster får ett långtgående ansvar att visa att deras produkt inte orsakat skada (se faktaruta på s. 32). Malin Leffler, delägare och ansvarig för advokatfirman Roschiers verksamhet inom privat M&A. Kan bli vapen Försiktig nyfikenhet och förväntan om nya uppdrag. Så kan advokaternas beskrivning av AI:s utveckling kanske lyda. Men vad tänker de då om riskerna på en samhällelig nivå, de som är tränade i just att bedöma risker och att bromsa de allt för entusiastiska? Malin Leffler har förstås läst om Elon Musks upprop och tanken på att bromsa AI-utvecklingen. Hon förstår tanken. – Det finns en nyvaknad insikt om riskerna och komplexiteten i det, och behovet av reglering. Jag kan verkligen förstå tanken med att göra paus, men det här är inte en utveckling man stoppar – särskilt inte som mindre nogräknade kommer utnyttja det, säger hon. Även Mikael Satama Granberg ser en poäng med att reflektera över utvecklingen. – Risken finns väl att kapplöpningen och viljan att vara först och kanske störst trumfar mycket annat som man nu borde reflektera över i form av etik och framför allt möjligheter att just begränsa felaktig användning, säger han. För Mikael Satama Granberg är det dock inte tekniken i sig som är det stora hotet. – Man ska snarare vara rädd för användningsområden där människor, eller till och med nationer eller organisationer, använder de här modellerna till skadliga ändamål. Det är där jag tycker ängslan är mest befogad, att vi släpper loss oerhört kraftfulla verktyg i händerna på människor som vi inte vill ska ha dem. l Så används AI på byråerna – vänd! • I kategorin högrisk finns till exempel kritisk infrastruktur, utbildning, anställning (till exempel mjukvara för sortering av cv:n), privata och offentliga tjänster som kreditbedömning, brottsbekämpning (till exempel bedömning av tillförlitligheten i bevis) och gränskontroll. Källa: RISE, regeringen.se › ADVOKATEN #4 2023 33