Den israeliska militären har använt AI-system för att övervaka och kontrollera palestinier på Västbanken under en rad år. Efter Hamas attack den 7:e oktober 2023 har Israel även använt AI-system i Gaza, inte bara för övervakning utan också för att systematisera, bevaka och välja ut militära mål. Israels användning av AI i Gaza och på Västbanken är en farlig utveckling och tydliga exempel på de faror militariserad AI utgör. Här går vi igenom det vi vet om Israels användning av militariserad AI i Gaza och på Västbanken.
Vad är militariserad AI?
Militariserad AI är alla AI-system som används för militära syften. Ett av de farligaste framtida användningsområdena för AI är helt autonoma vapensystem, även kallade mördarrobotar. Det är vapensystem som självständigt kan söka, identifiera och förstöra mål, det vill säga människor, bilar, andra fordon, hus eller annan infrastruktur. De finns inte ännu men utvecklingen går snabbt. Mördarrobotar skulle inte ha ett eget medvetande utan vara programmerade med algoritmer utformade för att sortera människor i olika kategorier; baserat på exempelvis längd, vikt, kroppstemperatur och hårfärg. När vapensystemet väl har programmerats skulle det dock fritt kunna, och det är själva syftet, utforska och attackera mål som anses uppfylla de förprogrammerade kraven. Detta utan vad man brukar kalla meningsfull mänsklig inblandning och kontroll – att en person är närvarande och delaktig i det enskilda beslutet.
AI används dock militärt redan nu på en mängd sätt. Om AI okritiskt används militärt utgör det en stor fara, även om det inte handlar om ett helt autonomt system. Att överlåta beslut över liv och död till en maskin genom att förlita sig på AI när beslut om att bruka våld fattas, särskilt i en så oförutsägbar situation som krig, kan leda till att människor avhumaniseras, att tröskeln för våld sänks samt att det blir svårare att bedöma vem som är ansvarig när något går fel. Risken för diskriminering ökar eftersom människor systematiseras utifrån förprogrammerade fördomar.
Israels användning av militariserad AI
AI-system är på många sätt delaktiga i det långtgående förtrycket mot palestinier och det nu pågående kriget mot Gaza.
Gaza – Habsora
En rapport som lanserades 2023 av palestinska och israeliska journalister visar hur ett AI-verktyg använts av Israel i kriget mot Gaza. AI-verktyget Habsora, hebreiska för ”evangelium”, används för att rekommendera mål som sedan kan attackeras.
Representanter från Israel hävdar att Habsora är precist verktyg och att det därför kan minska civil skada. AI-experter menar dock att det inte finns bevis för detta. Israels krigföring mot Gaza har genomsyrats av urskillningslösa bombningar. Rapporten, som bland annat vilar på anonyma källor från israeliska armén, beskriver hur verktyget räknat på antalet civila offer. När attackerna genomförts har den israeliska armén därmed vetat på förhand ungefär hur många civila som kommer att skadas eller dö. Dessutom menar de som jobbar med Habsora och med att analysera dess resultat att det finns press på dem att peka ut så många militära mål som möjligt. Exemplet med Habsora visar på en övertro på teknik som innebär att de människor som ska fatta beslut följer AI-systemets rekommendationer utan kritik eller eftertanke. Habsora-verktyget visar därmed också hur AI kan bidra till att militärer känner sig längre ifrån, och därmed mindre ansvariga för, de beslut som fattas, de handlingar som utförs och de konsekvenser de får.
Habsora är ett verktyg speciellt avsett för att användas mot byggnader och infrastruktur men ingen skillnad görs mellan civil och militär infrastruktur och ingen hänsyn tas heller till de människor som bor eller vistas i dessa byggnader. De som driver att autonoma vapensystem, alltså mördarrobotar, ska regleras kräver att maskiner som använder sig av AI ska användas med så kallad meningsfull mänsklig kontroll. Det betyder att en människa måste fatta varje beslut och förstå hur och varför AI-systemet gör de rekommendationer det gör, samt kritiskt granska och försäkra sig om att rekommendationen är rätt. Den mänskliga kontroll som idag finns när Habsora används är högst otillräcklig eftersom de som är ansvariga inte förstår eller ifrågasätter systemet utan okritiskt följer systemets rekommendationer. Den mänskliga kontrollen är inte meningsfull eftersom det inte finns kritik eller granskning av Habsora-systemets beslut, istället drabbas civila till följd av de beslut som fattas med systemets rekommendationer som grund.
Gaza – Corsight
Innan Hamas attack mot Israel den 7:e oktober 2023 skedde övervakningen av palestinier i Gaza manuellt, bland annat genom bilder från fjärrstyrda drönare, från sociala medier och från information från förhör. Efter den 7:e oktober började Israel använda ett experimentellt ansiktsigenkänningsystem som samlar in bilder av palestinier och kategoriserar dem. Detta sker helt utan deras vetskap eller medgivande. Systemet utvecklades av ansiktsigenkänningsföretaget Corsight för den israeliska armén och har använts i stor skala för övervakning. Systemet matas med befintlig information som samlats in av den israeliska militären, bland annat från den Wolf Pack-databas som används på Västbanken och lär sig att känna igen ansikten utifrån bilder som redan fanns inom systemet.
Enligt en rapport av New York Times gjorde Corsight-systemet fel redan i tidigt skede och kategoriserade civila som Hamasanhängare, bland annat en poet som stoppades och misshandlades under förhör vid en gränskontrollstation i Gaza när han försökte fly striderna.
Gaza – Lavender och Where’s daddy
Systemet Lavender är ett AI-verktyg som Israel använder för att välja ut mål för bombattacker. Till skillnad från Habsora, som väljer ut föremål som bilar och byggnader, används Lavender för att välja ut människor. Systemet matas med information om Hamas-soldaters beteende och jämför andra palestinier mot den för att på så sätt avgöra om de är Hamas-soldater eller inte. De egenskaper den letar efter och jämför kan handla om faktorer som att en person byter telefon ofta eller var de bor.
Enligt källor till rapporten om Lavender har den israeliska militären förlitat sig nästan helt på Lavendersystemet för att välja ut mål. Israeliska styrkor uppmanades att följa Lavenders listor utan att undersöka eller försöka verifiera listan med potentiella mål. Soldater uppges bara ha väntat 20 sekunder från att de fick informationen till att de beslutade att bomba ett mål från listan. Den enda försäkran som gjordes var att se över om personen på listan var en man. Militären förlitade sig på Lavender trots att de visste att systemet gjorde fel i ungefär 10% av fallen och att det har pekat ut individer som inte alls har någon koppling till militanta grupper.
Rapporteringen kring Lavender-systemet visar hur utbredd Israels användning av militariserad AI har blivit och belyser konsekvenserna av detta. Trots att det är människor som egentligen tar det slutliga beslutet, har övertron på ett bristfälligt system, och en ökande avhumansiering av palestinier, gjort att AI-system till stor del fattar beslut över människors liv och död.
Användningen av Lavender visar också hur behovet av att den mänskliga kontrollen är just meningsfull är helt avgörande. Här har vi en maskin som rent tekniskt kräver att en person trycker på en knapp för att skada ska ske men där soldaterna som ska granska maskinens rekommendationer faktiskt inte tänker efter eller ifrågasätter systemet, även fast det har en bevisad felfrekvens.
Exemplet belyser också hur militariserad AI leder till avhumanisering – att det skapas distans till det som ska attackeras och att det ses som något mindre mänskligt, något som gör det lättare och mer sannolikt att våld används. Denna sorts system ökar avhumaniseringen genom att mål inte behandlas som människor utan som datapunkter. I användningen av Lavender finns det också en genusdimension; den enda uteslutande faktorn för att avvisa det AI-föreslagna målet eller inte är huruvida det är en man eller inte. Alla män betraktas som potentiella gärningsmän. Detta berövar män deras inneboende rätt till liv och deras förmåga att betraktas som civila
Ett program som användes i samband med Lavender är Where’s daddy. Programmet spårar en måltavla som Lavender valt ut till dennes hem. När personen är hemma skickar programmet ut en notis till en soldat som sedan markerar hemmet som en måltavla för attack. Därmed attackeras hela familjer, och civila, urskillningslöst. Programmet bygger på en syn på hela familjer som legitima mål. Detta visar att data som Israel menar samlas in av säkerhetsskäl sedan används för att rikta in sig på misstänkta när de är utanför krigsområden och dessutom för att rikta in sig på deras civila anhöriga.
Västbanken – Wolfsystemen
I en rapport av Amnesty International fråns 2023, undersöks hur system för ansiktsigenkänning och övervakning använts av den israeliska militären i två palestinska städer på Västbanken: Hebron och Östra Jerusalem. Rapporten redogör för tre system: Blue Wolf, Red Wolf och Wolf Pack. Wolf Pack är en databas som ger den israeliska militäten en mängd information om de palestinier som registrerats av systetmet. Det kan handla om hemadress, familjemedlemmar och brottsregister. Wolf Pack i sig är inte ett AI-system men genom att samla in information möjliggör det AI-systemen Blue och Red Wolf.
Blue Wolf, som utvecklades 2020, är en app kopplad till Wolf Pack-databasen som israeliska soldater använder för att ta bilder på palestinier, registrera dem samt kontrollera den information som finns på databasen. Soldaterna uppmuntras att använda appen så mycket som möjligt och soldater rangordnas beroende på hur många bilder de tagit genom appen.
Red Wolf är ett system för ansiktsigenkänning som började användas 2022 vid israeliska checkpoints, alltså militära gränskontroller. Checkpoints finns överallt på Västbanken och bemannas av israelisk militärpolis, gränspolis eller soldater. Systemet skannar de som passerar kontrollstationer och fotograferar palestinier. Bilden jämförs sedan med existerande databaser för att identifiera personen som passerar checkpointen. Om personen inte redan finns registrerad i databasen registreras den automatiskt när bilden tas av Red Wolf-systemet. Personer kan nekas inträde till andra olika områden eller fängslas baserat på denna information.
Det är bara palestinier som måste passera checkpoints, israeliska bosättare kan ta sig fram fritt och har även tillgång till separata vägar enbart för israeliska bosättare. Databasen Wolf Pack, som tros vara kopplad till Red Wolf, innehåller också bara information om palestinier. Dessa system, i kombination med bosättarvåld, begränsar palestiniernas rörelsefrihet och bidrar till en tillvaro som präglas av rädsla och otrygghet.
Israels användning av Wolf-systemen är exempel på nyutvecklad teknik som möjliggör spårning och lagring av biometrisk information, det vill säga mätbara fysiska egenskaper eller personligt beteende som används för att känna igen en person. Ansiktsbilder, fingeravtryck och irisskanningsprover är alla exempel på biometri. Det finns ingen garanti att lagrad information genom dessa system inte kan, eller kommer att, matas in i vapensystem eller system som används för att välja ut måltavlor, så som de som används i Gaza.
Semi-autonoma vapensystem i checkpoints
Bilderna visar det semi-autonoma, fjärrstyrda vapensystem som placerats vid en checkpoint i Hebron på Västbanken.
Israel har sedan ett par år tillbaka installerat så kallade semi-autonoma, fjärrstyrda vapensystem (remotely controlled weapons) vid ett par checkpoints på Västbanken, bland annat i Hebron. De fjärrstyrda vapnen är del av övervakningen av palestiner och kan söka och identifiera mål, samt skjuta exempelvis gummikulor, det som ofta kallas för non lethal ammunition men som i vissa fall faktiskt kan vara dödlig. Gummikulor är metallkapslar täckta av gummi som kan leda till både allvarliga skador och död, särskilt om de avfyras från nära håll. Checkpointen med det fjärrstyrda vapnet i Hebron, på bilden, är en checkpoint som palestiner som bor i området måste passera dagligen. Just detta system fattar inte det slutliga beslutet att avfyra, men är en del av utvecklingen av AI för militära syften.
Användandet av militariserad AI i Palestina är en följd av avhumanisering i stor skala som startade långt innan den nuvarande väpnade konflikten och som har föregått den digitala avhumaniseringen. AI-systemen i Gaza och på Västbanken gör att palestiniers integritet och säkerhet inskränks. Alla dessa system skapar en tillvaro av osäkerhet och otrygghet för palestinier där deras städer, hem och de själva är under ständig övervakning – ofta utan deras vetskap eller medgivande. Det visar också på de stora problemen med utvecklingen av militariserad AI och mördarrobotar.
Svenska Freds arbetar för ett förbud mot mördarrobotar och en reglering av militariserad AI. Läs mer här.
Läs mer om Svenska Freds arbete i relation till kriget mot Gaza här.
Källor
Västbanken: https://www.wired.com/story/israel-surveillance-state-out-of-control-west-bank/
Västbanken: https://www.amnesty.org/en/documents/mde15/6701/2023/en/
Västbanken: https://www.vice.com/en/article/israel-deploys-ai-powered-turret-in-the-west-bank/
Semi-autonoma vapensystem:
https://apnews.com/article/technology-business-israel-robotics-west-bank-cfc889a120cbf59356f5044eb43d5b88
Corsight: https://www.nytimes.com/2024/03/27/technology/israel-facial-recognition-gaza.html
Lavender: https://www.972mag.com/lavender-ai-israeli-army-gaza/
Habsora: https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
Lavender & Habsora:https://www.972mag.com/israel-gaza-lavender-ai-human-agency/