'Killer Robot' Lab möter bojkott från experter på artificiell intelligens

  • Cameron Merritt
  • 0
  • 5039
  • 1085

Den konstgjorda intelligensen (AI) -samhället har ett tydligt meddelande för forskare i Sydkorea: Gör inte mördningsrobotar.

Nästan 60 AI- och roboteksperter från nästan 30 länder har undertecknat ett öppet brev som kräver en bojkott mot KAIST, ett offentligt universitet i Daejeon, Sydkorea, som har rapporterats vara att "utveckla [art] teknik för konstgjord intelligens som ska tillämpas på militär vapen, ansluta sig till den globala tävlingen för att utveckla autonoma vapen, "sade den öppna brevet.

Med andra ord kanske KAIST undersöker hur man gör militära AI-vapen. [5 skäl att frukta robotar]

Enligt det öppna brevet blev AI-experter världen över bekymrade när de fick veta att KAIST - i samarbete med Hanwha Systems, Sydkoreas ledande vapenföretag - öppnade en ny anläggning den 20 februari som heter Research Center for the Convergence of National Defense and Artificiell intelligens.

Med tanke på att FN (U.N.) redan diskuterar hur man ska skydda det internationella samfundet mot mördare AI-robotar, "är det beklagligt att en prestigefylld institution som KAIST ser ut för att påskynda vapenkappet för att utveckla sådana vapen," skrev forskarna i brevet.

För att starkt avskräcka KAISTs nya uppdrag bojkar forskarna universitetet tills dess president gör klart att centrumet inte kommer att utveckla "autonoma vapen som saknar meningsfull mänsklig kontroll", sade brevförfattarna.

Denna bojkott kommer att vara allomfattande. "Vi kommer till exempel inte att besöka KAIST, vara värd för besökare från KAIST eller bidra till något forskningsprojekt som involverar KAIST," sade forskarna.

Om KAIST fortsätter att driva utvecklingen av autonoma vapen kan det leda till en tredje revolution i krigföring, sade forskarna. Dessa vapen "har potential att vara vapen av terror", och deras utveckling skulle kunna uppmuntra krig att slåss snabbare och i större skala, sade de.

Despots och terrorister som förvärvar dessa vapen kan använda dem mot oskyldiga befolkningar och ta bort alla etiska begränsningar som regelbundna krigare kan möta, tilllade forskarna.

Ett sådant förbud mot dödliga tekniker är inte nytt. Genèvekonventionerna förbjuder till exempel väpnade styrkor att använda blindande laservapen direkt mot människor, tidigare rapporterat. Dessutom är nervmedel såsom sarin och VX förbjudna genom kemiska vapenkonventionen, där mer än 190 länder deltar.

Men inte alla länder går med på att täcka skydd som dessa. Hanwha, företaget som samarbetar med KAIST, hjälper till att producera klusterammunition. Sådana ammunition är förbjudna enligt U.N.-konventionen om klustervapen, och mer än 100 nationer (även om inte Sydkorea) har undertecknat konventionen mot dem, sade forskarna.

Hanwha har haft återverkningar för sina handlingar; utifrån etiska skäl investerar inte Norges offentligt fördelade $ 380 miljarder pensionsfond i Hanhwas aktie, säger forskarna.

I stället för att arbeta med autonom dödsteknik bör KAIST arbeta med AI-enheter som förbättrar, inte skadar, människoliv, sa forskarna.

Samtidigt har andra forskare i flera år varnat mot mördare AI-robotar, inklusive Elon Musk och avdøde Stephen Hawking.

Originalartikel om .




Ingen har kommenterat den här artikeln än.

De mest intressanta artiklarna om hemligheter och upptäckter. Massor av användbar information om allt
Artiklar om vetenskap, rymd, teknik, hälsa, miljö, kultur och historia. Förklara tusentals ämnen så att du vet hur allt fungerar