FÖRBJUD MÖRDARROBOTAR INNAN DET ÄR FÖR SENT
Detta är en debattartikel som publicerades i Expressen 11/5 2023.
Artificiell intelligens har blivit en snackis, från de som förundras över vad man kan göra till de som förskräcks över riskerna. Det pågår en politisk debatt inom EU om hur man kan reglera AI för att optimera dess användning, men en av de farligaste användningarna av AI saknas i diskussionen.
Geoffrey Hinton, som brukar kallas AI:s gudfader, har sagt upp sig från Google och varnar för tekniken han själv varit en del av att utveckla. Anledningen? Dödliga autonoma vapen, Mördarrobotar.
Under de senaste månaderna har ledarsidor och sociala medier översvämmats av artiklar och diskussioner om artificiell intelligens (AI). Diskussionerna har handlat om chattbotar och manipulationer av ljud och bild: allt från löjliga bilder av påven i pufferjacka och elever som använder AI för att skriva uppsatser till oro för hur vi kommer att kunna verifiera sanningen när det blir lättare och lättare att skapa missvisande videor. När vi pratar om riskerna med AI handlar det ofta om hur kulturen, och kulturutövare, kommer att påverkas, om vems jobb som ska ersättas och om storslagna frågor om mänsklighetens mening i en värld där datorer kan bli sångare, konstnärer och skribenter.
För att bemöta dessa farhågor har det funnits en stark vilja inom EU att arbeta för en reglering av AI-tekniken. Det visar att det finns en medvetenhet om att dessa tekniker kan skada lika mycket som de kan hjälpa. EU-kommissionen har föreslagit en förordning som skulle klassificera AI-teknik utifrån olika risknivåer och där teknik som anses utgöra större risk ska vara mer kontrollerad. En av de största riskerna med AI behandlas dock inte alls i dessa forum; utvecklingen av dödliga autonoma vapen, även kallade mördarrobotar. Det står uttryckligen i kommissionens föreslagna förordning att regleringarna inte skulle gälla vapensystem och AI-teknik som utvecklats för militär användning. Inte heller i den svenska diskussionen har denna risk lyfts i någon större utsträckning.
Militariserad AI kommer med stora såväl etiska och juridiska som säkerhetspolitiska risker. Mördarrobotar skulle leda till att beslutet över liv och död lämnas över till algoritmer vilket skulle reducera människor till datapunkter. Dessutom skulle mördarrobotar hota rättssäkerheten genom att försvåra processen för ansvarsutkrävande, en grundpelare inom folkrätten. De största riskerna är dock säkerhetspolitiska.Om det blir mindre kostsamt i människoliv och färre som traumatiserats av krigserfarenhet för den part som innehar dessa vapen riskerar tröskeln för att starta krig att sänkas.. Dessutom finns det risker att de hackas av eller smugglas till icke-statliga aktörer.
Det är positivt att AI har fått en större plats i den mediala debatten. Vi står inför en historisk vändpunkt inom tekniken och det är viktigt att vi förstår den. Men medan utvecklingen går i rasande fart har den politiska debatten inte hunnit med. Den politiska viljan som finns att reglera AI verkar försvinna när det gäller vapensystem. AI är ett revolutionerande verktyg som kan hjälpa och underlätta för oss människor på många sätt, men varför är vi villiga att låta dess mest farliga användning utvecklas utan någon som helst reglering?
Sverige ska bli ledande inom AI enligt regeringen. Men ledarskapet måste komma med ansvaret att också bli ledande inom regleringen av militariserad AI. En nationell policy för ett förbud mot mördarrobotar måste införas, liksom att regeringen aktivt arbetar för ett internationellt rättsligt bindande förbud mot mördarrobotar, innan det är för sent.
Kerstin Bergeå
ordförande, Svenska freds- och skiljedomsföreningen
Deborah Biniam Solomon
kampanjledare Mördarrobotar, Svenska freds- och skiljedomsföreningen