2015-01-19

Artificiell Intelligens på tapeten igen men låt det inte rinna av

I en mängd intervjuer de senaste halvåret har Elon Musk fått något tomt i blicken när han fått frågor om riskerna med den snabba utvecklingen av Artificiell Intelligens (AI) . Även Stephen Hawking och svenska fysikern Max Tegmark har varnat för utvecklingen.

Som vi skrivit om tidigare finns det redan i dag färdigutvecklade algoritmer som används av militära drönare som bland annat innebär att de kan fatta egna beslut om att döda eller inte döda människor. Denna funktion är kanske ännu mest tillämpad när de tappar kontakt med sin mänskliga joystick-pilot som sitter i någon skyddad anläggning ofta 100-tals mil bort.

Men det är inte långt bort till att ett beslut tas om att plocka bort den mänskliga faktorn helt. Det kan handla om att spara på resurser eller för att bespara människan ansvarstagandet och undvika de oftast mänskliga misstagen en maskin sällan gör, annat än när de är trasiga. Det är säkert väldigt bekvämt att kunna skylla på en maskins misstag i stället för politiska eller militära beslut gjorda av en människa...

En robot eller ett mjukvaruprogram kan inom några år helt enkelt ges möjligheten att helt fatta sina egna beslut, kanske har det redan gjorts. Åtminstone är det så det lutar om inte utvecklingen kontrolleras och ges insyn av flera än de som bara vill sälja tekniken. De flesta människor och även ytterst få som överhuvudtaget är intresserade av detta område är medvetna om hur snabbt denna utveckling går och framförallt vilka potentiella risker det kan innebära för mänskligheten på relativt kort sikt.

Först nu börjar media uppmärksamma frågan men ofta utan någon djupare analys. Få talar om vad som kan och bör göras. Dagens Industri har i dagarna tex skrivit om Elon Musks och Stephen Hawkings varningar och fokuserat på att Musk varnat för att AI kan börja bli ett reellt hot mot mänskligheten inom 5 år.

När människor läser det tänker nog de flesta i stil med "det är bara skrämselpropaganda och säljande rubriker" och läser sen vidare bland nöjesnyheterna.    

Men när en person som Elon Musk, med många miljoner investerade i världsledande företag inom AI i Silicon Valley, nu även öronmärker 80 miljoner kronor till Future of Life Institut (FLI) bör fler börja ta sig en funderare och förhoppningsvis blir det en bredare diskussion i frågan.

FLI beskriver sig som en öppen, frivilligt driven forskningsorganisation som arbetar för att mildra existentiella hot mot mänskligheten och fokuserar just på riskerna med utvecklingen av artificiell intelligens som når mänsklig nivå (och därefter högre...).  

Se gärna videon nedan där Musk kommenterar sitt beslut att stödja FLI och även Prof. Thomas Dietrich president för Association for the Advancement of Artificiell Intelligence (AAAI) och dennes syn på saken. Se även något av tidigare inlägg om AI och Johans artikel i julnumret av OM -om autonoma maskiner och AI.

 

5 kommentarer:

  1. Islamiska Staten kan nog bli först med att få känna på sådant här. En person som är utstyrd som en IS-soldat och bär på vapen kan få något otrevligt skjutet på sig. Mördarrobotorna kan kanske vara solcellsförsedda miniatyrbandvagnar? Det vore intressant med lite detaljer om vad jänkarna kan tänkas arbeta med.

    Dock är hotet från mördarrobotar bara ett av en rad AI-relaterade hot. Det trevligaste (?) hotet är att de allra flesta av oss blir ganska arbetslösa. Det kan funka fint om man bara inför intelligenta medborgarlöner. Oxfam efterlyser en lägsta garanterad inkomst, såg jag nu på morgonen.

    SvaraRadera
  2. Solcellsförsedda drönare kan strax flyga i månader på hög höjd. De har batteri för nätterna. Med bra kameror ser de långt även på natten. Fast det kan givetvis nyttjas för fredliga ändamål också bättre mobiltelefoni, väderrapporter, brandbevakning, trafikstyrning, mm . Nobel såg sin dynamit. ett stort framsteg för gruvor, järnväg, kanaler osv, som så fruktansvärt kraftfull att den nog skulle få krigen att ta slut. Det blev inte så men han såg senare sitt fredspris som viktigt.

    Det är betydligt mer avancerad AI som vi måste tänka på kontrollen av.

    Vänliga hälsningar

    Nanotec

    SvaraRadera
    Svar
    1. Hej! En AI-utvecklad -mjukvara som har ett till synes fredliga o harmlösa uppgifter kan i ett större sammankopplat system (tänk Internet, Smartphones o civila o militära drönare/vapensystem) få helt nya syften o utgöra andra risker än vad vi ser just nu, med nuvarande AI-nivå.

      Självfallet finns en mängd områden där AI kan möjliggöra helt nya tekniker o hjälpmedel för människan men det är kontrollen av dessa som är det kluriga.

      Jag förstår din poäng med jämförelsen av Nobels dynamit o de fredliga avsikterna som inte blev precis som uppfinnaren tänkt sig. När det gäller AI är dock de potentiella negativa konsekvenserna för mänskligheten långt större än verktyg i krig o attentat etc.

      Mvh
      Johan

      Radera
  3. De dummaste jag har hört på länge! Ge mig ett enda reellt från AI.

    SvaraRadera
    Svar
    1. Hej! Menar du hur ett AI kan börja bli ett hot riktigt hot mot människor inom fem år? Ja, det finns många saker som kan gå snett, till en början i liten skala för att bli ett större problem med tiden som AI antingen förs in som virusskydd eller liknande för systemuppehållande system som elförsörjning, banksystem etc. Men låt oss ta något konkret. Ett drönarbomplan skickas för att slå ut ett "militärt mål", genom kommunikationsstörningar, avsiktliga eller oavsiktliga tappar piloten kontrollen över drönaren. Under tiden beskjuts drönaren av ett mål som påminner om signaturen för det primära målet. Drönaren följer sin algoritm för försvar och utslagning av mål och släpper en bomb/avfyrar en robot. Nu råkar det vara så att det nya målet i fråga befinner sig i ett tätbebyggt område och inte alls är huvudmålet men beskjuter eller försöker störa ut drönaren. Några sekunder senare är 100-tals kanske 1000-tals oskyldiga människor döda. Detta kan givetvis hända även med en människa bakom spakarna och har förstås hänt många gånger tidigare men den här gången är det maskinen som tagit besluten om än inom ramen för sitt program.

      Elon Musk brukar ta exemplet att ett datorprogram baserat på AI som är skrivet för att bli det ultimata spamfiltret, enkelt kan komma till slutsatsen att människan är problemet och inte mängden spam det ska hålla borta. AI-programmet kan sedan försöka stänga alla möjliga system. Självfallet är det svårt att säga i dag hur långt man kommit med AI-program kapabla till riktigt stor skada men diskussionen måste föras och utvecklingen bevakas för att undvika det som kanske verkar otänkbart just nu.

      Mvh
      Johan

      Radera

Kommentarer bör hållas till bloggartikelns ämne. Håll god ton.