GENUS OCH AI
Svenska Freds förklarar på vilka sätt diskriminering genom könskodning är en del av problematiken med utvecklingen av mördarrobotar, helt autonoma vapensystem.
En form av diskriminering som programmeras in i algoritmer är genuskodning. Personer sorteras ofta in i binära grupper av män och kvinnor. Vi har sett exempel på detta när algoritmer ombes kategorisera människor från bilder och de automatiskt kategoriserar människor som står i ett kök som kvinnor. Detta sker som ett resultat av samhällets stereotypa könsnormer där köksarbete förknippas med kvinnor.
Med autonoma vapensystem förvärras denna kategorisering. Vapen i sig är ofta en förlängning av patriarkal maktutövning och denna dynamik försvinner inte bara för att det är maskiner istället för människor som krigar. Ett typexempel på detta är genusbaserat våld. Genusbaserat våld och dess användning handlar inte om sex och attraktion utan om maktutövning. Det handlar om att visa att man har makten att kunna skapa rädsla och kontrollera de som har mindre makt.
Genus påverkar också frågan om våld mot män. De patriarkala strukturer som vidmakthålls med vapen gör att vi tänker på män som krigande och kvinnor som civila och/eller som skyddsobjekt. Vanliga och förenklade narrativ i krig är att ”våra” kvinnor ska beskyddas, ”deras” kvinnor ska räddas, ”våra” män är hjältar och ”deras” män är alla våldsamma. Detta ökar också risken att civila män utsätts för våld.
Stereotypa genusnormer och könsblindhet påverkar mördarrobotars beslutsfattande och agerande. Det handlar inte bara om att kvinnor alltid kategoriseras som civila och att de inte känner igen att kvinnor kan vara soldater eller att alla män automatiskt kategoriseras som stridande. Det handlar också om att vissa ansikten inte känns igen alls med ansiktsigenkänningsteknik. Forskning visar till exempel att AI har svårare att känna igen svarta kvinnor med mörkare hy (Joy Buolamwini och Timnit Gebru, ”Gender Shades”, MIT Media Lab, 2018.). I 34 % av fallen kategoriseras inte mörkhyade svarta kvinnor som ”människor”. Detta kan leda till att dessa kvinnor behandlas som objekt och därför dödas.
En annan studie på AI-system visade att 44 % uppvisar partiskhet gällande kön och 26 % uppvisar partiskhet både när det gäller kön och etnicitet (When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity). Detta visar inte bara att AI kan vara partisk utan också att flera olika diskrimineringsgrunder exempelvis kön, etnicitet, ekonomisk förutsättning kan förvärras av AI.