Om någon skulle lyckas bygga en enklare AGI idag, och vidtar säkerhetsåtgärder, så skulle antagligen inte mycket hända. Min gissning är att de verktyg den har för att inte stängas ned skulle vara social manipulation och att vara bra på sitt jobb (och det senare är ju önskvärt).
Fast är den mycket smartare än en människa och internetuppkopplad blir situationen väldigt oförutsägbar. Och i en eventuell framtid där AI:n är mer integrerad i samhället, eller där det finns mer automatisering/robotar, eller där illvilliga stater/grupper kontrollerar en AI, blir risken genast mycket större. Vem vet hur läget ser ut om ett decennium eller tre. Eller bara några år.
Någon nämnde Tegmark. Han hade ett sommarprat om AI där han sade att folk ofta underskattade hur smart en AI (som inte har de biologiska begränsningar levande varelser har) skulle kunna bli – att i jämförelse med en extrem superintelligens skulle människor inte framstå som enkla djur, utan snarare som växter.
En sak som ofta händer i AI-riskdebatten är att folk frågar just "Jaha, men vad exakt skulle an AI göra?" och ifall de får hypotetiska förslag så kommer de med en lösning för just det problemet. Men pratar vi om en AI med tillräcklig intelligens och agens, så är det (för att ta ett lånat exempel) som för en schack-nybörjare att fråga "Varför påstår du att schack-AI:n Stockfish kommer att besegra mig när vi har samma pjäser och jag får göra första draget? Vad exakt menar du att den kommer göra?"
Jag vet inte vilka drag Stockfish kommer göra, men det betyder inte att jag är oberättigad att påstå att den kommer vinna. Tvärtom är det just eftersom ingen människa har en chans att klura ut vad den kommer göra som jag kan vara säker på att den kommer vinna.
Intelligens är förstås inte magi och en AI behöver något sätt att påverka världen. Men en tillräckligt smart AI som ges minsta möjlighet skulle kunna använda sätt att påverka världen som är så subtila eller oväntade att vi inte skulle tänka på att skydda oss mot dem, precis som människor kan planera och skapa en massa saker som en hund (eller för att ta Max exempel, en växt) aldrig skulle tänka på, om den så fick tusen år på sig.
(Även utan AGI finns det ju massor av exempel på algoritmer som hittar oväntade kryphål för att nå sina mål.)