Forskningen kring artificiell intelligens gör framsteg varje dag. Tekniken blir mer och mer avancerad. Men det är långt ifrån all forskning som är av godo.

Tidigare i veckan manade experter FN att vidta förebyggande åtgärder för att hindra något de kallar en tredje revolution inom krigsföring - autonoma vapen. Om de en dag blir en del av vapenarsenalen kommer vi se väpnade konflikter i en skala vi aldrig tidigare skådat, och det kommer gå fortare än vi kan föreställa oss, varnar de.

"De här kan vara terroristvapen, vapen som despoter och terrorister kan använda mot en oskyldig befolkning, vapen som kan hackas för att bete sig på ett oönskat sätt. Vi har inte lång tid på oss att agera. När Pandoras ask väl är öppnad, kommer den vara svår att stänga", skriver de i brevet till FN.

Läs också: AI-experter vill förbjuda mördarrobotar – "en tredje revolution i krigföring"

Redan i dag finns vidriga vapen som kan riktas mot oskyldiga. Vad skiljer dem från automatiska vapen styrda av ai-teknik? För det första krävs inga människor som kontrollerar dem, de är programmerade att själva välja ut och angripa måltavlor. Det kan handla om en drönare som programmerats att skjuta vem som helst i ett visst geografiskt område.

Vapen byggs bara om det finns en efterfrågan. Så hur troligt är det att vi kommer att se automatiska vapen av den här typen? Dessvärre väldigt troligt, om man ska tro grundaren och teknikchefen på robotikföretaget Clearpath robotics, Ryan Gariepy.

– Till skillnad från andra potentiella manifest kring ai, som fortfarande befinner sig i sfären science fiction, så utvecklas automatiska vapensystem här och nu. Och har verklig potential att orsaka betydande skada hos oskyldiga människor, och skapa en instabil omvärld, säger han till Computerworld.

Det handlar alltså inte om några hypotetiska gissningar från experternas sida. Den snabba teknikutvecklingen betyder att de här vapensystemen är möjliga, och det finns företag som är beredda att bygga dem. I juli meddelade australienska försvarsmakten att de investerar 50 miljoner dollar i ett nytt forskningscentrum för att utveckla vad de kallar pålitiliga autonoma system.

Läs också: Är du smartare än en AI?

Sannolikheten att världen blir fri från konflikter är inte överhängande. Kan man inte då tänka sig att det är bättre att robotar slåss med varandra, istället för att människoliv går förlorade?

– Dödliga, automatiska robotar kan mycket väl minska skadorna på civila. Precis som nuvarande moderna vapenarsenal kan göra. Det talar emot att de här vapensystemen förklaras olagliga per se, säger professor Anthony Finn, ansvarig för institutet för försvarsforskning på University of South Australia.

Att ersätta mänskliga trupper med maskiner kan dock göra att beslutet att gå ut i krig ligger mycket närmare till hands. Sannolikheten för ökat antal konflikter i världen ökar om förlusten av människoliv försvinner ur ekvationen säger andra experter.

En fråga man kan ställa sig är hur stor nytta ett förbud från FN skulle ha. Närmare 200 stater har skrivit under konventionen om kemiska vapen. Visserligen har 93 procent av alla sådana vapenlager förstörts sedan 1990-talet och 97 procent av alla tillverkningsanläggningar har stängts ner. Men de används fortfarande.

Häromveckan skrev 122 stater under ett förbud mot kärnvapen. Ett avtal som sägs vara ett viktigt steg mot en kärnvapenfri värld. Det bör dock tilläggas att ingen av de stater som har kärnvapen, och deras allierade, deltog.

Ett förbud mot automatiska, dödliga, vapen riskerar att gå samma öde till mötes. Om ett land har dem i sin arsenal är risken stor att någon annan känner att de också måste skaffa dem för att de inte ska känna sig sårbara.

Kan vägen framåt då vara att förbjuda forskningen? Inte sällan styrs forskare av vissa etiska regler. Regler som variera mellan institutioner, skolor, länder och inte är bundna vid någon officiell lagstiftning.

– Det är en utmärkt idé, att överväga de positiva och negativa sidorna gällande forskning kring ai-vapensystem och förbjuda oetisk forskning. Dock, krävs noga överväganden kring vad som i så fall räknas som oetisk forskning, säger Michael Harre, som är verksam vid fakulteten för teknik- och informationsteknologi vid universitetet i Sydney.

Läs också: Japaner tar över de obehagliga robotarna - Google har hittat en köpare till Boston Dynamics

Oavsett om ett förbud av automatiserade vapen är möjligt eller ens rätt väg att gå anser Anthony Finn att omständigheterna kring hur utvecklingen ska se ut och hur de eventuellt skulle användas måste redas ut. Det måste finnas ett ramverk på plats. För teknikutvecklingen går i en rasande takt. Att återigen låta tekniken springa förbi lagstiftningen är inte ett önskvärt alternativ. Tekniken får inte driva lagarna på samma sätt som det blev under Kalla kriget, säger James Harland, docent i beräkningslogik.

– Jag har med egna ögon sett det förfärliga arv som landminor lämnat efter sig i länder som Vietnam, där hundratals människor dödas eller lemlästas varje år, av minor som placerades där för över 40 år sedan. Jag tror att vi har en chans att i förväg etablera ett juridiskt ramverk för de tekniska framstegen. Och därmed låta samhället kontrollera tekniken istället för tvärt om, säger han.