GLAS 1
Hur klarar artificiell intelligens moral och etik
? ”En bankkund stämmer sin bank för att en artificiell intelligent algoritm har gjort en negativ bedömning av kundens betalningsförmåga. En bedömning som ingen kan förstå. En misstanke är att AI-algoritmen i sin beräkning har tagit med de fördomar om låntagarens hudfärg som finns ute i samhället. Något en banktjänsteman skulle ha varit moraliskt förhindrad att göra.” — Ovanstående är ett exempel på de moraliska problem vi kommer att stöta på med artificiell intelligens AI, enligt den framstående forskaren Nick Boström. — Det finns redan en rad AI-algoritmer ute i samhällets funktioner, även om vi inte kallar dem AI. Det är viktigt att vi inte bara utvecklar algoritmer som är kraftfulla för ändamålet, utan att de också är öppna för inspektion. — Det skulle vara frustrerande om det inte finns en bank i världen som är beredd att ge dig ett lån och ingen kan berätta varför. Trots att din ansökan är helt felfri! Det finns en stor risk att politiker och byråkrater skyller på ett AI-system i stället för att ta ansvar för de direktiv de gett programmerarna. I varje fall om vi ser tillbaka i historien. Ansvar, öppenhet, granskning, stabilitet, förutsägbarhet och en tendens att inte få oskyldiga offer att skrika med hjälplös frustration är Nick Boströms sammanfattning av vad ett AI-system måste bestå av. Boström går igenom en rad områden som styrs av moraliska beslut; djurhållning, djurförsök, förståndshandikappade, demens, miljö, vilka rättigheter mänskligt liv har, men också vilka rättigheter ett artificiellt intelligent liv kan komma att få. Allt detta ligger i framtiden, även om den inte är långt borta enligt många. Nuvarande AIalgoritmer är duktiga på ett område, som att spela schack eller att köra bil, men kan inte användas inom andra områden, lika lite som ett bi kan utföra en bävers arbete eller tvärt om. Det är relativt lätt att styra ett AI program som arbetar endast inom ett område och därmed bygga in säkerhet. Ett AI-system som däremot arbetar inom flera olika områden måste ha moraliska grundvärderingar inprogrammerade. En vision är att ett övergripande AIsystem förbättrar sig självt och utvecklar sig långt över människans intellektuella nivå. Man förutspår en AI-hjärna som är en miljon gånger snabbare än den mänskliga 46 GLAS 1.2017 / tema traditionellt hantverk och modern teknik / Nick Boström hjärnan, men fortsatt i samma storlek som människans. Översatt i tid innebär det att en människas tänkande under ett år skulle fullbordas hos AI-hjärnan var 13 sekund och ett århundrade på åtta och en halv timme. En viktig fråga i sammanhanget är om ett AI-system har ett inbyggt reproduktionsprogram? I så fall skulle ett AI-system kunna växa exponentiellt och det som tidigare tog årtionden skulle ske inom timmar och dagar. Vad innebär detta för utvecklingen av moraliska och etiska värderingar? Det är inte mer än 150 år sedan slaveriet avskaffades i USA, mindre än 100 år sedan kvinnor fick rösträtt. Vad händer om AI-systemen blir mer etiska och moraliska än oss själva? Om detta kan vi bara sia, men många forskare är övertygade om att de närmaste tio till tjugo åren kommer att innebära minst lika stora tekniska och vetenskapliga genombrott, som det totalt skett under de senaste ett till två hundra åren. /