WE 1
TEMA: INDUSTRIELL AI | 2:2018 » Vi kan inte vara
helt säkra på att inte drabbas av ohanterliga AI-beslut.« – ANNA HÅKANSSON KTH onödiga fallgropar. Det gäller att tänka efter före katastrofer sker. Med AI-tekniker kan man förutsäga vissa skeenden och vi ska inte sluta använda AI utan snarare förbättra den så att vi kan dra nytta av vad den kan göra.« Hur ska vi människor kunna hantera AI-beslut – som kanske är baserade på historiska fördomar? »Det är viktigt att var och en granskar beslut som kommer från AI-system och inte tar AI-systemens beslut för givna. Mindre tilltro till systemen är bra.« Vilket ansvar har företag som arbetar med AI-lösningar ur ett etiskt och moraliskt perspektiv? »Företagen har ett mycket stort ansvar – inte minst ur hållbarhetssynpunkt. De måste ansvara för de tjänster och produkter som de utvecklar. Bilindustrin menar att de tar på sig problem med självkörande bilar, men jag har inte sett något av det än.« Var ligger ansvaret och hur ändrar vi på det? »Ansvaret måste ligga hos företaget som erbjuder tjänster och produkter med AIteknik. Men även medborgare är ansvariga för vad vi delar med oss och måste se till att vi inte delger känslig information. Det enda sättet att ändra det är att upplysa om de problem som kan uppstå.« Tror du att vi kommer att ställas inför AI-situationer som vi inte kommer att kunna hantera? »Ja, tyvärr! Till exempel har vi många infrastrukturer som är sårbara. Ta till exempel transport, energi och vattenförsörjning, som lätt kan falla offer för olika AI-situationer som kan uppstå.« Finns det några områden där du anser att vi ska undvika AI? »Vapen definitivt! Vi kan aldrig tillåta AI-system att fatta alla beslut åt oss utan vår inblandning. Ett annat område är ’Predictive programing’, som används av filmindustrin för massive mind control. Det är en stor industri, som kan påverka många människor. En del påstår att detta är humbug, men om man tittar på tekniska produkter hittar man till exempel iPad i Star Wars, själkörande bil i Night Rider och så vidare. Det är alltid bra med kritisk granskning av AI-systemen och dess resultat. Inom sjukvården, finanssektorn och processindustrin är AI bra och ur etisk synpunkt okomplicerad.« Per Wallentin, VD KnowIt. LÅT POLITIKERNA TA DE ETISKA BESLUTEN »Eftersom digitaliseringen idag står så nära mänskliga beteenden, så har vi på Knowit sedan flera år tillbaka anställt psykologer. Det etiska inom AI blir allt mer filosofiskt, så vi kanske snart står här i behov av filosofer«, säger Per Wallentin, VD för Knowit. Med AI kommer världen att bli en mer detaljreglerad plats att leva på. Den egna fria viljan kommer att försvinna i många sammanhang för människan, eftersom AI kräver genomtänkta, lagreglerade etiska beslut. »Allt blir alltså mer uppstyrt, vilket kan påverka och ge en känsla av en kyligare plats - det tror jag definitivt. Trots det kommer AI att bidra till ett bättre och mer rättvist samhälle att leva i. Jag hoppas dock på att politikerna, i en demokratisk anda, tar de etiska besluten, så att inte de programmerande IT-företagen blir ansvariga. Det positiva med det är att politikerna då tvingas ta upp mer filosofiska och viktiga livsfrågor – kanske är det nyttigt för politikerna«, säger Per Wallentin och fortsätter: »Som företagsledare är det bra att lyfta blicken och bli mer av en filosofisk visionär. Alla företagsledare måste ta ansvar för hur AI kan påverka företaget. Men i och med den omfattande digitaliseringen måste frågan ställas om företagets affärsmodell är hållbar på längre sikt.« 33