PAX#3 23: FREDSPODDEN #31: ”AI I VAPENSYSTEM – VEM DRABBAS AV UTVECKLINGEN AV MÖRDARROBOTAR?”
I Fredspoddens avsnitt #31 är ämnet utveckling av AI för militär användning. Hur långt har utvecklingen kommit? Vem drabbas av utvecklingen? Vad kommer hända om utvecklingen fortsätter i samma riktning?
Autonoma vapensystem, även kända som mördarrobotar, kan utan mänsklig inblandning välja ut och attackera mål. Dessa mördarrobotar liknar fjärrstyrda drönare som agerar enligt förprogrammerade riktlinjer och algoritmer.
För närvarande kan robotarna patrullera områden eller lokalisera mål, men kräver fortfarande en mänsklig order för att utföra en attack. Snart bedöms inte den mänskliga ordern behövas längre, utan mördarroboten kommer inom en snar framtid kunna fatta det slutgiltiga beslutet om liv och död på egen hand.
– Man brukar skoja om att AI är allt som känns omöjligt just nu, vilket kan vara vad som helst, säger Deborah Biniam Solomon, Svenska Freds kampanjledare mot mördarrobotar.
En av de mest avgörande frågorna i detta sammanhang är att vi tenderar att överdriva vårt förtroende för maskiner att fatta rationella beslut. Maskiner påverkas inte av mänskliga faktorer som hunger, trötthet eller irritation, men det innebär också att de saknar den känslomässiga intelligens som mänskliga beslutsfattare har.
– Människans förmåga att kunna känna känslor är avgörande när vi fattar beslut, och en instinkt hos många människor är att vi inte vill skada någon, att det tar emot. Det är en viktig del när man brukar dödligt våld, att väga in den känslomässiga aspekten av det, och det kan ju inte en maskin göra, säger Rebecka Lindholm Schulz, projektledare för Fredsakademin.
I avsnittet pratar vi med den palestinska människorättsaktivisten Issa Amro, som lever och verkar i ett sammanhang där AI används för militära syften. Han älskar AI och dess förmåga att beskydda och göra det lättare för människor. Men även han ser den alltmer oroande utvecklingen, på första parkett. I Palestina används inte AI för att skydda, utan för att skrämma och kontrollera.
Frågan vi står inför är om detta verkligen är rätt väg att gå. Det behövs en öppen och ärlig diskussion om hur vi vill att AI-teknik ska användas inom militären, något som det pratas alldeles för lite om. Slutsatsen är tydlig: Vi måste reglera utvecklingen och användningen av autonoma vapensystem för att undvika katastrofala konsekvenser och säkerställa att AI används på ett ansvarsfullt och etiskt sätt. Det är vår plikt att säkerställa att tekniken tjänar mänsklighetens bästa intressen och inte hotar vår säkerhet och vårt samhälles moraliska grundvalar.
Lyssna på Fredspoddens avsnitt #31 “AI i vapensystem – vem drabbas av utvecklingen av mördarrobotar?”, för att höra mer om utvecklingen. Det är hög tid att agera innan mördarrobotar blir en verklighet som vi inte kan kontrollera.
Skribent: Elin Isendor