2015-07-28

Öppet brev om hotet med användning av AI inom vapentillverkning

I flera tidigare inlägg om artificiell intelligens (AI) har vi rapporterat om hur bland annat Elon Musk, Bill Gates, Steve Wozniak (en av grundarna av Apple) och Stephen Hawking varnat för den extremt snabba utvecklingen inom forskningen av artificiell intelligens. En utveckling som bara inom några år, inte årtionden kan komma att användas mot människor mer än bara i rent militära applikationer.

Inför invigningen av International Joint Conference On Artificial Intelligence (IJCAI) som inleds i Buenos Aires idag, har ledande forskare inom robotik och artificiell intelligens skrivit ett öppet brev där man varnar för den just nu okontrollerade utvecklingen av Artificiell Intelligens. En av huvudpersonerna bakom brevet är svensken Max Tegmark, en av världens mest erkända fysiker som är professor i fysik vid MIT. Max var sommarpratare i P1 2008 och är en av grundarna till Future of Life Institute (FIT) som vi skrivit om tidigare.

1595 forskare inom forskningsområdet robotik och artificiell intelligens har skrivit under brevet men även många andra kända personer, däribland ovan nämnda (förutom Bill Gates) -ni finner listan hela här. 

Vad står det i brevet då?

"Autonoma vapen väljer ut och anfaller mål utan mänsklig inblandning. Dessa kan till exempel omfatta väpnade quadrocoptrar som kan söka upp och förinta människor utifrån på förhand definierade kriterier men inkluderar inte kryssningsmissiler eller drönare styrda av piloter på distans där människor tar beslut om slutmålet. Teknologin inom artificiell intelligens har nått en punkt där införandet av sådana system- är praktiskt om än inte lagligt -möjliga inom år, inte årtionden. Och mycket står på spel: autonoma vapen har beskrivits som den tredje revolutionen inom krigföring, efter krutet och kärnvapen"

Många argument har förts för och emot autonoma vapen, till exempel att soldater kan bytas ut av maskiner och att det är något bra då det minskar antalet skadade människor för den som sitter på tekniken men att det samtidigt kan ses som negativt då det sänker tröskeln för att gå i strid. Frågan mänskligheten står för idag är därför om vi ska inleda en väpnad kapplöpning inom utvecklingen av AI. Om en enda militärmakt trycker på för utvecklingen av AI, kommer en global väpnad kapplöpning bli oundviklig och slutpunkten för denna utveckling är uppenbar: autonoma vapen blir morgondagens Kalashnikovs.

Till skillnad mot kärnvapen kräver de inga kostsamma, sällsynta råvaror och de kommer därför bli vanligt förekommande och billiga för alla betydande militärmakter att masstillverka. Det blir då bara en tidsfråga innan de dyker upp på svarta marknaden och hamnar i händerna på terrorister, diktaturer som vill kontrollera sin befolkning, krigsherrar som vill genomföra etnisk rensing, etc. Autonoma vapen är ideala för att utföra lönnmord, destabilisera nationer, förmå befolkningar att lyda och döda specifika grupper utifrån etnisk härkomst. Vi tror därför att väpnad kapplöpning med hjälp av artificiell intelligens inte är välgörande för mänskligheten. Det finns många sätt där AI kan göra slagfält säkrare för människor, särskilt civila, utan att skapa nya verktyg för att döda människor..."    
                 
Läs hela brevet här och fundera själva och se gärna tidigare inlägg om artificiell intelligens under den nya fliken "Navigera till rätt inlägg" ovan.


Inga kommentarer:

Skicka en kommentar

Kommentarer bör hållas till bloggartikelns ämne. Håll god ton.