WE 1
Går det att värja sig från AI-styrd falsk informa
tion? »Tyvärr har vi inga bra instrument för att bekämpa spridning av så kallad ’fake news’, eftersom AI-systemen, i sig, inte kan skilja på vad som är rätt eller fel. Faktum är att vi människor också har svårt att veta vad som gäller, speciellt när vi rör oss i, för oss, obekanta miljöer. Här behövs en slags etik-policy som kan upprätthålla objektivitet och korrekthet. Det finns annars en risk att det endast går att lita på tryckta källor, som har granskats av många olika oberoende aktörer, och det vore att ta flera steg tillbaka i utvecklingen i en tid där det mesta sker digitalt. Dessvärre har vi börjat ändra i tryckta böcker så till och med ursprungskällorna är förvanskade. Då suddas historien ut och kunskapen om originalitet försvinner.« Än så länge saknar AI-system empatisk förmåga. Behövs det mer teknik och kunskap i framtiden? område är självkörande förarlösa bilar, som är intelligenta agenter som kan arbeta i miljöer utan mänsklig inblandning. Där har det nu hänt att människor har förolyckats. En annan etisk fråga att hantera är när AI används för att skapa »drönarvapen«, som i svärm (så kallad swarm intelligence) tillsammans kan jaga exempelvis människor, sprida kemikalier och avfyra vapen. Är det etiskt riktigt att utföra dessa aktioner? Det är mycket svårt att värja sig för sådana attacker. Då föreligger risk att man går förbi domstolar och förbiser fattade beslut, som oftast behöver dryftas av flera olika personer. Dessutom kan människor med kontroversiella åsikter bli drabbade och frågan är om alla måste agera stereotypt för att inte bli attackerad, vilket vore ett trist samhälle. Stereotypt agerande – det är nämligen så som AI-systemen fungerar idag.« 32 Anser du att det finns tillförlitlig forskning och teknik för att förhindra att AI används oetiskt? »Både ja och nej. Det finns tillförlitlig forskning, som har fört AI framåt. Deep learning är det senaste, men forskningen är inte heltäckande inom alla områden. Det finns även forskning som är tveksam. Vi kan inte vara helt säkra på att inte drabbas av ohanterliga AI-beslut. Anledningen är att många system innehåller ofullständig information och buggar, vilket kan ge helt felaktiga beslut. Dessutom finns det många tillverkare runt om i världen och syftet att använda och applicera AI-tekniken kan vara problematisk. AI i sig är neutral och inte farlig och är en fantastisk tillgång för kvantifierbara uppgifter, såsom databassökning och beslutsfattande inom ett specifikt område.« Anne Håkansson, KTH. »Vi kommer alltid behöva mer teknik och kunskap. Världen utvecklas kontinuerligt och strävan att förbättra för mänskligheten fortsätter. Forskning är nödvändig för att hitta nya förbättrade tjänster och produkter, men även för att undvika