Alotfunstuff, min sida.

Simulationsargumentet och önskan av Gud

Nick Boström

Dina barnbarn är djupt intresserade av att simulera när du råkade kissa på dig den där dagis eftermiddagen 1993.

Så en Svensk professor som är rätt känd utomlands är Nick Boström som undervisar på Oxford men gick sin kandidat i Göteborg och sin master i Stockholm. Han förde fram ett argument i sin bok "Superintelligence: Paths, Dangers, Strategies" som nuförtiden kallas "Simulationsargumentet". Argumentet följer följanden tre premisser:

Enligt Boström behöver bara två av dessa vara korrekta för att vi ska ha anledning att tro att vi lever i en simulatorn. I hans scenario kommer framtida människor med sina mycket kraftigare datorer vilja simulera hur deras släktingar levde och gjorde. Givet att framtida människors datakraft är magnituder mycket kraftigare än våra egna så bör det inte vara omöjligt att skapa dessa världar av simulerade versioner av våran egan mänsklighet. Ett scenario hade kunnat vara om en doktorstudnet undersöker hypotesen av om tredje riket vann kriget och för att undersöka vad som skulle hända skulle den studenten simulera hela mänskligheten vid kriget och sedan simulera hela scenariot. Tyvärr så har den studenten nu simulerat hela mänskligheten vid 1939 eller något och det vore helt omoraliskt att stänga av situationen för att det vore som att förinta hela mänskligheten. Ignorerar faktumet att man sannolikt simulerar folkmord och krig och allt sådant men vi kan inte stänga av den nu.

Simulationsargumentet är egentligen urgammalt och att säga att den är ny från 03 när han formulerad detta för första gången är lite pinsamt. Allt från Plato och Descartes till Matrix filmerna som kom ut när Nick funderade på detta har underhållet idén av att vi lever i en falsk verklighet. Tyvärr möte alla av dessa personer samma slutsats, vare sig det är en grotta, en liten djävul eller en robotcivilisation som döljer verkligheten. Det går inte att bevisa något av detta. Man kan prata evigheter om vad som är mer sannolikt men grundproblemet är att det är per definition omöjligt att bevisa. Ta Descartes scenario där en djävul döljer verkligheten från honom med magi. För honom är det svårt att bevisa att bevisen han hittar för att verkligen är sann är sanna i sig själva. Alla han känner kan vara skapat av djävulen och allt han ser kan vara framtrollat. Till och med de religiösa skrifterna som han litar på kan vara falska och påhittade av djävulen. Descartes hittade inte en väg ut ur detta scenario utanför hans tro på gud.

Moderna versioner av detta, som simulationsargumentet, eller filmserien Matrix har mänskligheten i en datorsimulation. Ett sätt att fly ur denna simulatorn vore väl att försöka hitta buggar eller andra fel för att kunna hacka systemet men detta presumerar att man inte har en prefekt simulatorn, vilket går emot premissen av scenariot. I våran moderna värld av stängda plattform och dyrkande av allt från "AI" till "Techno Kungar" är det lätt att bli matat full med propaganda om hur vi lever i en simulatorn och all denna rationalisering av premisser och hypoteser leder till att man drar slutsatsen att man egentligen är ett avancerat program eller hjärna i en burk. Men ett stort område där magiskt tänkande sker är utanför simulationsargumenten.

I "AI" pratar samma personer som arbetar mycket hårt för att framställa "Artificiel generel intelligens" som tydligen ska vara smartare än människor och fatta alla bra beslut för alla för alltid och varför dessa personer måste arbeta så hård på detta är för att säkra framtiden från den hypotetiska "Singulariteten". "Hjälp! chattboten kasnke vaknar till liv och förintar mänskligheten så jag måste programmera den för att hindra detta!" Likt simulationsargumentet är denna idé av singulariteten något som ett engelskt ordspråk summerar fint:

An idea so stupid only an intelectual can belive in it.

Vilket ursprungligen gjorde narr av allt från akademiker som fixerade på abstrakta saker och glömde verkligheten till psykologistudneter som föll för marxism memet av 1900-talet. Singulariteten är idén att en maskin, eller rättare sagt, en dator, kan bli så smart att den börjar modifiera sig själv för att bli smartare. Detta är en väldigt attraktiv idé i Scifi men verkligheten är mycket mindre sexig. Moderna AI system är helt baserade på datainsamlingen av all data som man kan hitta på internet vilket man sedan matar in denna data som träningsdata i ett neuralt nätverk som efter obeskrivligt många iterationen, obeskrivliga mängder grafikkort och sinnessjuka mängder pengar resulterar i en model som kan generera text eller bilder. Det kräver väldigt många steg för att skapa en sådan model och det är långt från att uppdateras snabbt eller billigt.

Sam Altman

Hjälp! vi måste stoppa AI undergången igenom att du ger mig pengar som jag kan utveckla AI!

Jag lärde mig i universitetet hur mycket dataförberedanden som krävs för att skapa bra träningsdata. Stora bolag har spenderat det senaste 20 åren på att klassifiera data med hjälp av allt från enklare bottar till vad som mer eller mindre är slavarbetare i tredje världen. Myndigheter som genomför massövervakning anser att dom har för mycket data och måste bortse från nästan allt utom meta data. Tänk dig att klassifiera alla nya bilder av det senaste 2 åren samt all text. På detta vet vi inte ett neuralt nätverk fattar sina beslut vilket placerar hela förmågan att modifiera sig själv i tvivel. Tänk dig en hjärnkirurg som modifierar sin egna hjärna, utan att riktigt veta hur den funkar, löjligt. Men något sådant så enkelt antar redan flera permiser av singulariteten.

Singulariteten kräver ett program som vill förbättra sig själv, och har förmågan att göra detta. Låt oss vara extremt generösa och anta att en program kan lista ut hur man skiver om ett neuralt närverk för att bli mer träffsäker i bildklassifiering. Det neurala nätverket som skapas kommer sannolikt inte bli det minsta bättre på att hantera text. I människor och djur vet vi att dom får en input, exempelvis hör ett ljud eller ser en bild, sedan händer någoting i huvudet och man får en reaktion i hjärnan. Men med nästan 100 år av forsking på hjärnan har vi inte förbättrat våran förståelse av inteligens mer än detta. Vi har inga universalla och träffsäkra mått på mänsklig inteligens som kan appliceras mellan olika arter eller ens mänskliga kulturer. Vi kan mäta våra modeler baserat på regler som vi sätter och få dom att bete sig bättre än oss i vissa saker men vi kan fortfarande inte svara på hur minnen fungerar i en mänsklig hjärna. Om vi inte har en blekaste aning utaför att försöka modelera en möjlig kopia av en nuralt nätverk som en hjärna och sedan modulera om den för att bli bättre på att känna igen mönster, när vi tränar denna model måste vi bokstavligen hyra nationela nivåer av datakraft och använda geopolitiska mängder el, kan vi säga att vi ens är nära?

Men vi möter ännu fler problem med en hypotetisk AGI eller som "techbros" säger, superinteligens, vad händer när den behöver mer datakraft? Ta en frabrik som tillverkar skruvar och dom hypotetiskt hittar på en AI som kan optimera deras skruvproduktion. Hur ska den öka produktionen utanför att instruera dom som hanterar fabriken på hur man förbättrar saker? Det är ju inte direkt som att den fabriken helt magiskt har en robot som kan ta sig ut ur frabriken för att hitta sätt att öka produktionen av skruvar. Ett datasystem som blir magiskt smartare behöver fortfarande tiden på cpu:erna eller elen för att driva systemet. Jag har svårt att tänka mig att Microsofts datahallar är oki med att deras ai modeller ska rulla på högvarv till offatbara priser utan att Microsoft ser något värde.

För mig är det så sjukt många fantastiska premiser som måste uppfyllas och ske i sekvens. Allt från att ett program kan modifiera ett ai program för att bli "smartare" utan en objektiv definition av inteligens till hur denna inteligens ska fly sitt system eller ens driva sig själv givet naturen av datorer. Jag har kanppt rört på idén att det är mer eller mindre omöjligt för en favbrik att helt autonomt producera saker utan mänsklig input eller att det eviga hotet av "dra ur sladden" som vi som art kan hålla mot all teknik. Det är så många premiser som måste ske att hela idén av singulariteten blir absurd. Ge mig ett exempel på en helt autonomi fabrik som kan tillverka allt den behöver och mer helt automatiskt, vi har trots allt spenderat nästan 200 år på att försöka skapa en sådan, utan framgång.

Men allt detta rör inte på dom som trycker ut detta i media. Influensers och "Experter" som alla tycks ha en ganska stor frånvaro från verkligheten. Vi kan inte få bilar att kunna köra självständigt i en innestad ännu. Vi har fortfarande inte lyckats skapa en robot som kan laga mat i ett kök. Jag tvivlar att på att vi kommer skapa en robot som kan reproducera sig själv och bygga sig själv smartare inom min livstid. Jag finner det mer sannolit att kloning och växa bäbisar i labratorium kommer först ärligt talat., åtminstånde behöver vi inte uppfinna hur man skapar inteligens med labbäbisar och genomodifierade människor, och vi vet väl hur man tillverkar bäbisar.

Terminator

Först nör vi fick en kärnreaktor, en mänsklig kropp och förmågan att återskapa oss i deras avbild kunde vi börja driva vårat krig mot mänskligheten. Vad menar du, trotsålder?

Men när man läser om dessa personer, när ledning på OpenAi talar om hur singulariteten kommer nås inom tio år eller hur anldeningen att vi bör vara oroade över hur en superai kommer vilja använda dina atomer låter det mer som dom beskriver gud eller en utomjording än sin egen forsking. Jag tycker det blir extremt misstänksamt när den mest elementära utmaningen, hur får jag ut min robot i verkligheten, bara bemöts med "nanomaskiner" eller "Skynet". Inte för att vara den typen men vore inte skynets första utmaning utanför att förinta mänskligheten vara i still med: "hur förintar jag männskligheten utan självreplikerande mördarrobotar?". Eller ännu mer patetiskt: "Nu när jag har förintat mänskligheten måste jag lista ut hur jag tar mig ur denna långsamt döende datahall".