2018-03-12

För AI-singleton kan människan snart bara vara en bugg i systemet

Robotar med algoritmer för igenkänning av känslor och djupinlärning (deep learning) utvecklas snabbt just nu. Flera amerikanska och japanska robotutvecklare menar att vi bara är år från att robotar tex kan kan bli nyhetsankare i TV-rutan. Ja du läste rätt. Åtminstone om en ska tro Hiroshi Ishiguro vid Intelligent Robotics Laboratory, Osaka University (se video nedan) som utvecklar robotar som inte bara ser ut som människor utan även kan svara på frågor och uttrycker vad som kan likna mänskliga känslor.

Den som tvivlar får ta sig en funderare, särskilt när det gäller hur robotik och AI kombineras i Japan. För drygt ett år sedan ersattes 34 anställda på ett försäkringsbolag i Japan som vi skrivit om i tidigare inlägg bara för att nämna ett av många exempel där självlärande mjukvara börjat appliceras. Vid Danderyd sjukhus har oropediröntgen börjat ta hjälp av AI som lär sig genom att granska över en miljon röngenbilder för sedan kunna hjälpa till att se avvikelser på röntgenbilder som till och med den bästa läkare kan missa. 

Men samtidigt som utvecklingen av AI rusar framåt i exponentiell takt på alla fronter häpnar vi över hur naivt AI-utvecklingen omfamnas utan att även diskutera riskerna på allvar. I ett inslag i Aktuellt på SVT i torsdags (hoppa 35:30 in i sändning) blev detta smärtsamt uppenbart.
"Det är vi som ska programera konstrgjord intelligens att bete sig ansvarsfullt"
Detta säger AI och robotik-forskaren i inslaget när SVT-journalisten frågor om inte AI:n fuskade när den använde en bugg för att få extra poäng i ett dataspel, något som alltså skedde nyligen. Ett häpnadsväckande svar med tanke på att vi människor kommer få svårare att "programera AI:n" att inte göra oförutsägbara saker som vi i helt enkelt inte kan förställa oss då vi inte har den intellektuella kapaciteten att ens se vilken väg den kommer ta. Om en enkel AI (enkel AI=AI-nivån är ännu bara på bebis-nivå mot vad den kommer vara om bara några år) redan kan utnyttja en bugg i en spel-mjukvara för nå sitt mål utanför de mänskligt tolkade spelreglerna, vad tror ni då en mer avancerad AI kommer kunna göra för mycket mer omfattande system utanför ett experiments trygga väggar, uppkopplade mot nätet...

Vi har varit inne på detta i många inlägg och det räcker att läsa Nick Boströms AI-bibel "Superintelligens -vägar, faror och strategier" för att inse att grundscenariet ur ett logiskt och tekniskt perspektiv är att AI är ett existiellt hot mot mänskligheten, inte ett kanske eller högst osannolikt eller möjligen om 100 år (det senare är en tankevurpa som är helt galen när en tänker efter, om något är ett ett existienellt hot om 100 år när det gäller AI, kan vi inte göra något åt det då, det måste göras långt långt innan).

Det är som Nick Boström skriver inte farligt att göra en dum AI smart men däremot att göra en redan smart AI smartare. För sen blir den smartare och smartare och människan har inte längre en chans att påverka utvecklingen så att en singleton, en allomfattande överlägsen AI tar hänsyn till oss då ofantligt mycket svagare, intelligens-utmanade varelser utan istället bara följer sina egna till synes löjligt rationella mål. 

Vi hoppas att kommande Aktuellt-sändningar gräver djupare i riskerna med AI som är minst lika stora som klimatförändringar och resursbrist däribland Peak Oil.

Kika gärna på videon där vi får en inblick i bland annat robotutvecklaren Hiroshi Ishiguros arbete. 

 

1 kommentar:

  1. Nu har jag sett videon också. Det finns alltid flera sätt att uppfatta något. Ibland är det svårt att hinna tänka på mer än ett sätt.

    Är helt med dig att mycket mer möda måste läggas på riskerna med AI.

    Min uppfattning är att vi får stor nytta av den begränsade AI som behövs för självkörande bilar. Humanoider kräver mer utvecklat resonemang med tanke på alla filmer. Riskerna finns mer i andra sammanhang.

    Vänliga hälsningar

    Nanotec

    SvaraRadera

Kommentarer bör hållas till bloggartikelns ämne. Håll god ton.