2018-07-04

Nej, AI är inte ett mindre hot än klimatet och inte "långt bort i framtiden"

Igår var en av bloggens läsare på plats i Almedalen på Gotland för att för bloggens räkning bevaka ett seminarie anordnat av Vattenfall på temat Artificiell Intelligens (AI) med titeln: "AI – lättare liv men svårare val".  Panelen skulle diskutera:

"Nya teknologier som maskininlärning och AI, Artificiell Intelligens, är redan här. För energikunder kan det ge nya möjligheter till bekvämlighet, miljönytta och kostnadsbesparing. Vilka legala och etiska frågor finns?"

Panelen bestod av Anna Felländer -medlem i regeringens digitaliseringsråd och senior rådgivare, Boston Consulting Group, Darja Isaksson -medlem i regeringens innovationsråd, entreprenör, nyutnämnd GD, Vinnova och Karl Bergman -chef forskning och utveckling, Vattenfall. Moderator var Sofia Mankert, Vattenfall.

Paneldiskussionenerna bjöd på en del intressanta perspektiv och vi rekommenderar att ni kikar på den (se slutet av inlägget) men fokus låg på AI:s enorma affärsmöjligheter såsom tidsoptimering, resursbesparing, individanpassade tjänster osv och tyvärr blev samtalen väldigt obalanserade. För även om en del av riskerna med AI berördes tonades de ner eller avfärdades som något vi möjligen får hantera långt in i framtiden, rent av att de var "teoretiska hot". Det är förstås rent nonsens för den som är insatt i utvecklingen inom AI och tänker ett par vändor något vi ska göra i detta inlägg.

Vi var inte på plats rent fysiskt men följde sändningen live och hade alltså en tentakel på plats, en av bloggens läsare som fick ställa nedanstående fråga åt oss (24.04 in i videon):
"Nick Boström har ju varnat för att vi kan nå generell AI mycket snabbare än de flesta tror. Kanske inom 15-20 år. Innan dess måste AI demokratiseras. Hur får vi som kunder i Vattenfall insyn i hur AI används så det ej missbrukas?" 
Karl Bergman från Vattenfall svarade att det är lite därför de har sådana här seminarier och att det krävs transparens för att undvika situationer likt Cambridge Analytica som skadar företag samtidigt menade han att det inte går i detalj att låta kunderna "bocka för" vilken data som de vill eller inte vill ska användas för olika tjänster.

Vad vi slås av när vi hör beskrivningar av AI likt i den här paneldebatten är avsaknaden av djupare insikter om farorna. Det är förvisso jättebra att de lyfter en del av de etiska frågorna som hur enorma datamängder kan bilda beslutsunderlag för AI där endast kostnadsreduceringar och vinstoptimering blir det som styr en AI:s riktning/beslut för att algoritmen utformats så eller för att större delen av datan går i den riktningen, till nackdel för individer, vissa grupper eller den personliga integriteten. Men det räcker inte att vi bara "utbildar" de som programmerar alogritmerna när de flesta människor inte ens känner till hur AI kan och kommer att användas och hur det faktiskt kommer att förändra samhället och därmed människors politiska och ekonomiska möjligheter.

Det går förstås inte att stoppa AI-utvecklingen men påverka den gör det om det görs tidigt. Kanske accelerar AI-satsningen inte bara för att företag och nationer vill bli först med att skapa sig den ultimata konkurrensfördelen med att nå en AI-Singleton, en AI som är vida överlägsen alla andra AI-verktyg och kan dra ifrån i en ointaglig ledning, kanske drivs AI- utvecklingen även på av människor som ser det som enda möjligheten att möta klimathotet och andra systemkriser som vi människor som kollektiv till synes inte klarar att lösa själva. Men vi får aldrig glömma att det glimrande guldet på utsidan av pandoras ask kan vara förädiskt.

Sedan är det självklart också vikigt att belysa de möjligheter som AI redan skapar inom tex vården för att screena ovanliga typer av cancer. En vän till Johan vi Karolinska Sjukhuset i Stockholm har nyligen berättat hur det som för bara 4-5 åren sedan tog 1-2 månader och involverade olika kluster av skilda expertgrupper nu koordineras och granskas med AI-verktyg där interdiciplinära sökvägar och metoder snabbsöks av en AI som nu kan ge behandlingsunderlag inom loppet av ett par dygn.

En stor del av den forskning som sker vid Karolinska Institutetoch inom sjukvården generellt nu, involverar AI för att hitta praktiska medicinska tillämpningar. Det är inte teori utan hands on. Det finns många andra positiva exempel att lyfta inom sjukvården där AI-verktyg för tex röntgen-analys redan är i paritet eller bättre än många läkare. Med andra ord kan AI-verktyg kan redan nu rädda liv.

Detsamma gäller förstås inom utvecklingen av självkörande fordon och inom många andra områden där AI kan bidra till sollra data och ge beslutsunderlag som kan underlätta för människors liv och spara resurser.

Men alla tre i panelen faller platt för det kanske vanligaste antagandet och okunskapen, att ett potentiellt existenstiellt eller om så bara djupt skadligt AI-mot mänskligheten ligger "långt bort i framtiden". Ingen vet förstås med säkerhet exakt när AI-nivån når generell övermänsklig nivå, en del tvivlar på att det ens är möjligt dvs när en AI når en nivå som överstiger hela mänsklighetens kollektiva intelligens. Men när Elon Musk, Max Tegmark, Nick Boström och Sam Harris, personer i spetsen av AI-forskningen varnar för att allt inte bara talar för att vi kommer nå dit, utan att vi når det dit mycket snabbare än de flesta tror, dvs inom ett par årtionden (eller tidigare) och inte 50-100 in år i framtiden -bör vi stanna upp ett ögonblick och fundera vad det innebär.

För nästa gång någon säger att vi inte behöver oroa oss för existensiella AI-hot eller som hävdar att AI-hot möjligen ligger långt in i framtiden, bör vi påminna om en bra liknelse som Sam Harris ofta tar upp när han bemöter sådana uppånedvända och ologiska påståenden: 

Om mänskligheten visste att en övermänsklig intelligens skulle anlända till jorden om 50-100 år in i framtiden, skulle vi då vänta till sista minuten för att förbereda oss för dess ankomst? Eller skulle vi inleda ett Manhattan-liknande projekt där mänskligheten på bästa möjliga sätt förbereder sig och minimerar riskerna med ankomsten av en övermänsklig AI och dess potentiella följder för människan? 


Vi vill verkligen varna för uttalanden av så kallade experter på AI som påstår att "eventuella AI-hot kan vi fixa sen" då vi menar precis som Sam Harris och många andra att det är en fundamental tankevurpa och ett dåraktigt resonemang helt taget ur luften, utan insikt om AI-utveckling idag och vad den är på väg. För vi kan inte fixa AI-hotet sen. När vi väl når generell AI-nivå finns det inga "quick fixes" (enkla lösningar) eller ens någon kontrollerbar väg tillbaka som mänskligheten styr över. Det skulle kunna bli fantastiskt men också helt...ja ni hajar.


Men det är bara ena sidan av problemet med den snabba utveckling av AI just nu. Långt innan vi når ett potentiellt existensiellt AI-hot kan AI-verktyg missbrukas av enskilda företag och nationer som ett sätt att styra utvecklingen i en för dem fördelaktig riktning utan att andra varken kan påverka eller se vad som sker. Vi talar inte bara om att skapa smarta appar, läsa av och styra människors energianvändning, skapa självkörande fordon mm utan hela beteendespannet: Kontroll av människors vanor, politiska åskådning och ekonomiska möjligheter. Det kommer nämligen gå att manipulera människor och företag genom AI-beslut som i allt större utsträckning kommer tas av AI:n själv men under en övergående period styrs av de algoritmer ett fåtal människor utformat för att sortera och hantera data utifrån ett begränsat antal uppsatta kriterier.

Riskerna med detta är uppenbara. Några få människor eller företag skulle som Nick Boström beskriver i sin bok Superintelligens - vägar, faror och strategier, få ett aldrig tidigare skådat inflytande på ekonomi och politik som får allt annat att blekna i jämförelse. Något som även beskrivs i det inledande kapitlet av Max Tegmarks mycket läsvärda bok "Liv 3.0" om det så kallade Omegagänget som genom att bli först med att utveckla en superintelligent AI kör ifrån alla andra och snabbt blir världens rikaste och mest inflytanderika gäng i mänsklighetens historia...          

I kapitlet om Omegagänget i Max Tegmarks bok Liv 3.0 nämns ett citat från matematikern Irving Good från 1965 som är värt att fundera lite kring:
"Låt en ultraintelligent maskin definieras som en maskin som vida kan överträffa människans alla intellektuella aktiviteter oavsett hur begåvad hon är. Eftersom skapandet av maskiner är en av dessa intellektuella aktiviteter kan en ultraintelligent maskin konstuera ännu bättre maskiner; det skulle då odiskutabelt uppstå en "intelligensexplosion", och människans intelligens skulle hamna på efterkälken. Den första ultraintelligenta maskinen är således den sista uppfinning som människan någonsin behöver åstadakomma, förutsatt att maskinen är tillräckligt foglig för att säga åt oss hur vi ska kontrellera den". 
Frågan kring hotet om AI tycks bestå av två centrala delar, dels hur långt in i framtiden det tar innan vi når en utltraintelligent AI-nivå/generell AI och hur snabbt den sedan kan bli ett existensiellt hot för människan. Vi tror att problemet till att vaför de flesta människor inte reagerar när det kommer till AI (och andra hot som klimathotet, Peak Oil osv) är att de flesta människor inte kan skilja på exponentiell utveckling och vanliga S-kurvor. Med andra ord skilja mellan utveckling som först knappt märks sedan plötsligt är noterbar och sedan utvecklas explosionsartat bortom vår kontroll "i oändlighet"(AI-explosion) . Detta alltså jämfört med traditionell, människodriven utveckling som sker i gradvisa stadier.

Det mesta vi uppfattar i vårt samhälle går ju sakta och sker stegvis, det vi tar för givet kanske urholkas men ofta under många års tid och ofta har vi glömt varför en förändring kom till långt efter vi har möjlighet att påverka dess riktning och slutmål.

Men på det sättet kan vi inte förhålla oss till AI om vi vill minimera existensiella risker som kan hota oss i en nära framtid. För AI kan bli ett existensiellt hot mot människan i paritet eller rent av långt före klimathotet eller ekosystemkollapser, det är den första utgångspunkten vi behöver ha. Det är just för att de flesta inte sett AI-utvecklingen som den här diskussionen inte tagits och för att många företag drivs av en kapplöpning att hitta den ultimata AI-guldgruvan. Detta trots att AI-guldgruvan omgärdas av en giftig orm som kan bli okontrollerbar. Den är varken ond eller god bara potentiellt farlig för oss människor.

För att förstå AI måste man alltså förstå exponentiell utveckling. Vi tipsar därför om att se de numera bortgångne professor Albert A. Bartletts numera klassiska video som förklarar exponentiell utveckling på ett pedagogiskt sätt. Bartlett höll över 1000 föreläsningar om detta under sitt liv och uttalade den berömda frasen:
"Människan största tillkortakommande är hennes oförmåga att förstå exponenetialfunktionen".  
Några av tidigare inlägg på AI-temat finner ni länkar till i detta inlägg.

Ni kan se seminariet "AI – lättare liv men svårare val" i sin helhet nedan:

2 kommentarer:

  1. Avfärdandet av GAI (generell AI) att inte vara ett hot påminner om avfärdandet av klimatförändringar som något allvarligt.

    I viss utsträckning handlar det om ignorans, men att GAI kan vara farligt krockar med de möjligheter och allt positivt som (G)AI kan medföra. Det positiva och hoten krockar. Då väljer folk att endast tro på det ena, i det här fallet möjligheterna.

    Hur människan ska kontrollera GAI är en lika tuff nöt som att motverka klimatförändringar. Jag tror inte det minsta på en demokratisk GAI. Varför skulle den ha mänskligheten som långsiktigt mål?

    Vi behöver massor med kreativa hjärnor och resurser för att hitta lösningar för att kunna kontrollera GAI.

    SvaraRadera
  2. Hej Andreas! Kan bara hålla med dig.

    För att förtydliga, med demokratisera AI avser jag göra tillgängligt och transparant om hur den används för allmänheten. Det krävs givetvis det skarpaste av hjärnor för att skapa en plan för hur AI ska användas och för att i bästa mån förebygga för de oändligt många okontrollerbara fallgropar det kan skapa.

    Jag delar även Future of Life´s Institute tanke om att sprida kunskap om AI och som Elon Musk ofta är inne på, instifta ett internationellt organ för regelverk kring AI-användning.

    Men det aningen av en utopi att förvänta sig att alla ska följa ett sådant ramverk, för mycket står på spel. Vi kan därför inte förvänta oss att nationerna följer reglerna/redovisar all om hur de använder AI men det kan ha ett värde genom som att skapa ökad medvetenhet om AI och ge ett ramverk om vad allmänheten förväntar sig och anser vara ok och inte vilket i bästa fall får föreag och nationer att hålla i sina tyglar kring användningen...

    Men det hela är om inte den, så en av de största utmaningarna mänskligheten stått inför.

    Mvh Johan

    SvaraRadera

Kommentarer bör hållas till bloggartikelns ämne. Håll god ton.