Ja, det verkar alltså som att oron för framtida superintelligent AGI faktiskt var en signifikant del av skälen bakom kaoset i OpenAI. Detta stärks av att den tillfälliga VD:n som först tillsattes för att ersätta Altman, Emmet Shear, verkar vara en riktig AI-”doomer” (från SvD, betalvägg, men jag citerar det viktiga):
Citat:
När han [Emmet Shear] i somras gästade podden The Logan Bartlett Show kom han in på hur AI inom kort kommer kunna förbättra sig själv.
– Då kommer det gå väldigt, väldigt snabbt. Det är i sig själv väldigt farligt, för intelligens är makt.
Frågan om P(doom) kom upp, och Shear svarade att osäkerheten är väldigt stor.
– Men jag skulle säga att risken är mellan 5 och 50 procent. Kanske mellan 2 och 50.
[P(doom) = sannolikheten för att en superintelligent AGI utrotar eller förslavar mänskligheten]
Det väcker alltid intressanta följdfrågor när man försöker sätta sannolikheter på vad som egentligen är osäkerhet om verklighetens beskaffenhet. I spannet 2% - 50% ingår inte 0%, betyder det att han utesluter möjligheten att ett datorprogram visar sig inte kunna bli superintelligent? För detta är något vi ännu inte vet, vi kan bara anta det ena eller det andra tills superintelligens eventuellt uppstår. Men om naturlagarna omöjliggör algoritmisk superintelligens (eller medvetande, känslor, eller någon annan egenskap som vi väntar oss att en superintelligent maskin ska ha) så är P(doom) = 0, oavsett vad vi tror om saken – vi kommer däremot i det fallet troligen aldrig att få veta hur det ligger till.
Men, det handlar också om hur man ser på sannolikhet. Det jag skriver ovan är kompatibelt med den sannolikhetsteori som kallas frekventism, som ligger bakom de vanligaste statistiska metoderna. I den teorin skiljer man i regel på sannolikhet och osäkerhet likt hur jag gör ovan. Ett annat synsätt som blivit mer populärt de senaste 20 åren eller så, särskilt bland de som jobbar med AI, är bayesianism – det är en mer tillåtande teori, på så vis att den tillåter att sannolikheter används för att beskriva alla former av osäkerhet. Sannolikhet är där ett annat ord för att vi inte vet, även för händelser som redan hänt men som vi inte fått veta utfallet av. Dessa olika synsätt är relevanta för hur man ser på flera av de öppna frågorna i debatten om risker och möjligheter med framtida superintelligent AGI – så jag tänkte med utgångspunkt i detta dela några av mina tankar om AI.
---
TL;DR: Tyvärr, det finns ingen. Lång rant följer...
Finns slumpen?
Ovanstående om bayesianism och frekventism är intressant mest utifrån hur man pratar om sannolikhet. Men båda teorierna är också löst kopplade till alternativa teorier om slump, som i sin tur kan kopplas till hur vi kan bedöma risken för AI-apokalyps. Med slump menar jag här händelser som är genuint oförutsägbara, där ingen information finns tillgänglig som kan förutsäga en händelse innan den faktiskt har börjat.
(I) En möjlighet är att äkta slump inte finns, och allt är förutbestämt, vi vet bara inte vad som kommer att hända. Det vore helt kompatibelt med bayesianism, och det skulle också innebära att en tillräckligt intelligent varelse hade kunnat förutsäga allt som sker bara den vet tillräckligt mycket om utgångsläget. Jag får intrycket att detta är en latent accepterad teori bland de som oroar sig mest för AI-apokalyps, eller åtminstone att de menar att väldigt mycket är förutsägbart bara man har tillräckligt med data. Det som begränsar en intelligent varelses möjligheter att förutse händelser är här bara intelligensen, och vad den vet om naturlagarna och världens tillstånd just nu.
(II) En annan möjlighet är att slumpen är verklig, och det finns händelser som saknar orsak. Saker som skulle kunna vara exempel på detta vore radioaktiva sönderfall, samt spontan avfyrning av nervceller i en biologisk hjärna. En dator har ingen sådan mekanism, tvärtom så är den designad för att vara förutsägbar, och måste därför matas med slump från omvärlden för att åstadkomma slumpmässiga händelser. (s.k. slumpalgoritmer skapar inte slump, deras uppgift är att ta ett värde från en okänd fördelning som input, och mappa det till den fördelning som programmeraren vill ha). Denna möjlighet ligger mer i linje med frekventism. Om verklig slump finns, så följer att det är svårare att förutsäga framtiden, oaktat intelligens och tillgång till information om världen. Mycket är såklart fortfarande lagbundet och kan förutsägas, men långt ifrån allt.
Att uppskatta risken för farlig superintelligens
Hur trovärdig är hypotesen om att en självförbättrande superintelligent AGI kan uppstå och bli en fara för mänskligheten?
Silicon Valley och ett antal filosofer och andra forskare verkar tro på detta, själv är jag mer skeptisk. Som jag ser det är det två saker som måste vara sanna för att det ska ske.
För att en superintelligent AGI ska kunna uppstå måste alla aspekter av intelligens utgöra beräkningsproblem, dvs. en maskin är intelligent i kraft av dess beräkningskapacitet. Det borde vara det samma som att säga att någon form av Computational Theory of Mind (CTOM) måste vara sann. Men detta vet vi inte idag. CTOM är inget krav för att vi någon gång ska kunna bygga en maskin eller artificiell organism som eventuellt är smartare än oss - vi människor utgör själva evidens för att materia kan vara intelligent - men jag uppfattar det som ett krav för superintelligens. För hypotesen om superintelligens bygger inte bara på att maskiner kan vara intelligenta, den bygger också på att dessa maskiner kan förbättra sig själva genom att samla på sig än större mängder beräkningskapacitet i form av datorhårdvara. Förutsättningarna för det finns bara om intelligensen själv kan realiseras som en beräkning, såvitt jag kan se.
För att en superintelligent AGI ska kunna vinna ett krig mot människor som är medvetna av vad den försöker göra, förutsatt att den inte har direkt tillgång till kärnvapen, så måste den kunna förutse våra motdrag nästan varje gång. Det kopplar direkt tillbaka till (II) ovan, ju mindre förutsägbar världen och människorna i den är, desto svårare är det för AGI:n att kunna försvara sig mot våra försök att stänga av den. Åtminstone för människor har det visat sig otroligt svårt att utifrån historiska data förutsäga hur människor kommer att handla i framtiden. Det kan vara för att vi som försökt hittills är alltför dumma i huvudet, det kan också vara för att informationen inte finns för att den beror av slumpmässiga händelser som ännu inte hänt (alternativt utslag av en fri vilja, ifall en sådan finns – men det behöver vi inte anta för att min invändning ska fungera).
Själv är jag skeptisk till både (1) och (2), men jag kan inte utesluta någon av dem. CTOM har visat sig vara en ganska dålig modell av mänsklig intelligens, det datorer gör snabbt (t.ex. söka av en finit sökrymd av t.ex. drag i schack) gör vi människor långsamt, och mycket av det som är så trivialt för oss att vi inte ens tänker på det som ett problem (t.ex. att se) är fortfarande inte helt löst för AI-modeller. Detta är ju saker som jobbas med, men det hela tyder på att algoritmisk intelligens är väldigt olika mänsklig. Avseende (2) har jag har också svårt att se att en fientlig AI skulle lyckas tänka ut en vattentät plan innan den börjar pröva sig fram och därmed avslöjar sig. Man ska inte underskatta hur mycket av människans framsteg som åstadkommits genom trial-and-error, snarare än att någon tänkt ut den perfekta planen.
Max Tegmarks teori om verkligheten
Det kan vara värt att ta upp en annan som pratar om P(doom) i storleksordningen > 50%, det är den (i AI-sammanhang) inflytelserike svenske kosmologen Max Tegmark, som Swec refererat till i en tidigare nyhet. Han är den första som jag hört sådana extrema siffror från, och han citeras ofta i ämnet. Han har dock en teori om verkligheten som är ganska speciell, ”The Mathematical Universe hypothesis”. Enligt hans teori består vår värld i första hand inte av materia, utan allt som existerar utgörs av matematiska strukturer som också är beräkningsbara. Så han går betydligt längre än CTOM, hans teori kan snarare kallas en ”computational theory of everything”. Om allt kan beräknas, då följer att båda mina (1) och (2) ovan är sanna, vilket kan förklara hans pessimistiska uppskattning av riskerna.
I hans bok om detta från 2014 argumenterar han också för att det är mer sannolikt att vårt universum är en simulering som körs i en dator av något slag i ett annat universum, än att det inte är det. Detta baserat på att varje universum (simulerat eller verkligt) kan innehålla flera simulerade universa, så vi kan helt enkelt vänta oss statistiskt att det finns många fler simulerade världar än verkliga världar. Om vi lever i en simulerad värld där allt är algoritmer, så blir det också trivialt sant att vårt mänskliga tänkande är algoritmiskt.
Nick Bostrom, en annan svensk som är central i diskussionerna om AGI har fört liknande resonemang. Så ett par av de största akademiska namnen i fältet har synsätt på verklighetens beskaffenhet som inte är mainstream bland fysiker, men som passar särskilt bra ihop med hypotesen om datorbaserad AGI.
AI-entusiasmens sociologi
Många är övertygade om att självförbättrande AGI är möjligt, även om de som vi sett är oense om riskerna och fördelarna. Något som förenar s.k. ”doomers” och ”boomers” är att båda läger verkar acceptera CTOM och att graden av (algoritmisk) intelligens skalar någorlunda linjärt med beräkningskapacitet. Jag ser övertygelsen mer i kretsarna kring de mer hajpade företagen i Silicon Valley än hos forskare, även om ett antal akademiker (mest filosofer och matematiker, däremot knappt några kognitionsvetare, psykologer eller neurovetare) också driver tesen starkt. De är genomgående väldigt intelligenta personer. Men jag undrar om inte intelligens kan bli en orsak till tunnelseende här, särskilt i kombination med personkult-kulturen runt Silicon Valley. Där höjer man gärna de som lyckats till skyarna, och tolkar deras lyckande som ett uttryck för deras höga intelligens. Detta på bekostnad av tillfälligheter och kontexten de verkar i, något som syns inte minst i de otaliga trådar här på Swec som handlar om Elon Musk. Om man är väldigt intelligent, vet om detta och upplever skillnaden mot de flesta man möter, får sin intelligens ständigt bekräftad av de som ser upp till en, kanske också ser intelligensen som en viktig del av vem man är – och dessutom jobbar med att utveckla AI – ligger det inte nära till hands då att tänka att just intelligens är den viktigaste egenskapen som för världen framåt? När det snarare är resurser och organisationsförmåga som gjort skillnad för de flesta mänskliga framsteg historiskt. Jag ser helt enkelt en stor risk att man överskattar nyttan av intelligens. Bonus är om man också hör till de i Silicon Valley som drömmer om evigt liv genom att ladda upp sitt medvetande i molnet, något som också förutsätter att CTOM är sann.
Detta är inget argument mot AGI-hypotesen i sig, men kan förklara varför de som hajpar AI och inte gör detta fördelar sig geografiskt och ämnesmässigt som de gör. Det kan användas åt andra hållet också, såklart, man kan förklara varför de som främst fokuserar på biologisk intelligens är mindre övertygade om AI:s potential. (Själv passar jag in på det senare mönstret, så till vida att min bakgrund är främst psykologi och kognitionsvetenskap om än med en del datavetenskap).
Slutord
Frågor om superintelligens och AGI handlar alltså inte bara om datavetenskap och teknik, utan faller tillbaka på svåra olösta frågor om hur universum och vårt eget tänkande är beskaffat.
Jag kan passa på att lägga till att det jag ifrågasätter här är bara de extrema apokalyptiska argumenten, jag tror vi kan räkna med att en del av den närmaste framtidens självlärande AI-program kan komma att löpa amok och ställa till rejäl oreda. T.ex. om man ser på datorvirus historiskt, där en del av dessa lett till mycket värre konsekvenser än skaparen tänkte sig. En nödvändig egenskap hos AI-program (som delas med människan) är att de försöker gå utanför vad som är givet som input. Det gör att även misstagen kommer att bli mer kreativa.