AI och vuxenutveckling – reloaded

Som många andra har jag experimenterat med Chat GPT och följt diskussionerna kring AI roll i framtiden. Vi har haft många seminarier om generativ AI på universitetet, både ur praktiska perspektiv kring vår undervisning och matematiska perspektiv kring hur maskinlärande och neurala nätverk fungerar, så jag har fått tillfälle att reflektera en hel del själv.

I den här artikeln vill jag försöka besvara frågor som om AI kan utvecklas förbi oss i intelligens (vad nu det är), när AI blir AGI (artificial general intelligence) och vad det är, om den kan bli självmedveten, om AI-utveckling är ett hot mot mänskligheten som exempelvis Max Tegmark och nyblivne nobelpristagaren Geoffrey Hinton menar och varför så många har blivit nervösa eller överväldigade av de senaste genombrotten. Jag vill besvara frågorna med hjälp av ett vuxenutvecklingsperspektiv där jag främst har min expertis och jag kommer försöka hålla mig på en ganska grundläggande nivå för att kunna beskriva mer övergripande principer kring hur vi såväl som olika former av AI fungerar. Jag avslutar med lite användbara källor. (Jag har faktiskt redan skrivit ett blogginlägg i detta ämne med liknande rubrik 2018 och visst överlapp i innehåll, men en del har hänt sedan dess i AI-utvecklingen.)

En introduktion om vårt tänkande

Jag vill börja med att beskriva en vanlig och enkel föreställning kring intelligens som jag upplever är förhärskande i AI-diskussionerna såväl som kring hur vi som människor eller organismer i allmänhet fungerar, även om det sällan sägs rakt ut. Denna modell som jag illustrerar i figur 1 nedan består av två delar, verkligheten som vi omges av och hur vi tänker kring den. Verkligheten skulle kunna vara den fysiska verkligheten av materia, energi, tid, rum osv. Den andra halvan som visar hur vi tänker kring världen och representerar den byggs upp av informationen vi tar in enligt den övre pilen. Enligt den nedre pilen kan vi påverka och förändra världen genom hur vi agerar. På så sätt är vi i en ständigt återkopplad process med vår omvärld. Vi ser världen, förstår den, agerar på den, varvid den eventuellt förändras osv. En enkel feedback-loop.

Figur 1. Relationen mellan vårt inre som förstås som endast vårt tänkande och verkligheten som kan vara exempelvis den materiella världen.

I båda ändarna, uppe och nere, finns vanligt uttryckta ideal. När vi tar in information från omvärlden har vi ofta ett ideal att vara objektiva och ha en sann bild av verkligheten. Vi ska inte låta våra personliga tyckanden påverka och vi ska se upp för olika sorters bias. I den nedre delen är idealet ofta att vi ska vara rationella och handla i enlighet med denna korrekta och sanna bilden av världen och vad som ger önskvärt resultat.

Som man kan tänka finns en rad följdfrågor man kan ställa till denna förenklade bild, men först kan vi illustrera vad som händer när det inte fungerar som det är tänkt. Om vi tar klimatfrågan som exempel så brukar man argumentera att vi borde basera vår förståelse av klimatet utifrån de bästa vetenskapliga källorna och agera på ett sätt som minskar de negativa effekterna. Problem i den övre änden brukar förstås som att det finns klimatförnekande aktörer som sprider missinformation och tvivel. Även om vi diskuterat vad sann kunskap är sedan åtminstone Platon har det de senaste åren blivit än mer komplicerat i och med vårt överflöd på (inte alltid sann) information och begrepp som fake news, deepfakes och post-truth. I den nedre änden resoneras ofta kring gapet mellan insikt och handling – att vi fortsätter handla emot vår kunskap kring vad vi egentligen behöver göra.

Man kan tycka att denna bild är en halmgubbe och överförenkling, men jag uppfattar att många argument kring om och när AI blir intelligentare än oss utgår från en sådan här uppfattning, om än outtalad. Det finns i många läger en förkärlek kring att utgå från så enkla förklaringsmodeller och byggstenar som möjligt som vi brukar kalla Occhams rakkniv. Särskilt bland fysiker och programmerare som står i centrum för AI-revolutionen. Men jag är intresserad av vad som händer när vi komplicerar denna modell ett par steg och jag vill börja med att ifrågasätta hur vi förstår den centrala komponenten, vårt tänkande.

En tidigare beskrivning om hur AI skulle kunna ta över världen kom från Nick Boströms ”paper clip”-maskin. Alltså en dator som får som uppgift att tillverka så många gem som möjligt. Risken med att ge en dator en sådan tydligt definierad uppgift är att den kan resonera att människor på något sätt står i vägen för denna överordnade målsättning och beslutar sig för att göra sig av med mänskligheten. Detta resonemang innehåller en syn på tänkande och informationsbearbetning som bygger på formell regelbaserad logik, likt en övernitisk byråkrat i en myndighet som till punkt och pricka följer sina direktiv utan några andra hänsyn som organisationens, samhällets eller individers väl och ve. Det finns alltid oönskade bieffekter vi glömmer bort när vi försöker formulera mål. Och detta stämde nog ganska bra för de flesta digitala system, åtminstone innan genombrottet för neurala nätverk och stora språkmodeller (LLMs) som Chat GPT. För här finns två i grunden olika sätt att utforma digitala system som AI som vi kan illustrera med att beskriva utvecklingen av schackdatorer.

Lite om schackdatorer

Traditionellt, och fortfarande, har schackdatorer som exempelvis Stockfish byggt på en formell och regelbaserad logik. Den fungerar enligt två steg som också schackspelare använder. Det första steget involverar att beräkna möjliga drag och varianter framåt. Här är förstås stor datorprestanda en tillgång, där datorn följer olika varianter eller grenar av sekvenser av möjliga drag där antalet kombinationer växer exponentiellt ju fler drag framåt man försöker räkna. Det andra steget går ut på att kunna värdera en ställning i hur bra och önskvärd den är för den själv. I de klassiska programmen görs denna värdering enligt olika kriterier som material (hur många pjäser man har kvar enligt en poängskala: en bonde=1p, en löpare och springare=3p, ett torn=5p, en dam=9p), strukturen hos bönderna (dubblade på samma linje eller isolerade är ofta dåligt), terräng eller utrymme, hur aktiva ens pjäser är och hur skyddad ens kung är. Allt detta läggs ihop till en total poäng som utgör värderingen i ställningen. Vad som är viktigt här är att alla stegen är explicita, man kan följa hur datorn (engine brukar man illustrativt säga på engelska) resonerar i vilken dragföljd och exakt hur den värderar ställningen. Detta har varit mycket framgångsrikt och från det att Deep Blue besegrade dåvarande världsmästaren Garri Kasparov 1997 betraktas datorerna vara överlägsna människor.

Men de senaste åren har ett nytt sätt att göra schackdatorer utvecklats som bygger på deep learning. Först gjordes det med spelet Go, där AlphaGo besegrade den obestridde mänskliga mästaren Lee Sedol 2016. Därefter utvecklades schackdatorn AlphaZero som tränades enligt liknande principer genom att den spelade mot sig själv många gånger för att träna upp sig själv. Även om vi bygger upp skolan och utbildningssystemet ganska mycket enligt det mer logiska fungerandet ovan påminner detta sätt mer om när barn lär sig gå och utforska världen. Våra små barn får inte en instruktionsbok med regler som de tränar efter utan lär sig själva med trial and error. De reser sig, snubblar, ramlar, reser sig igen osv. AlphaGo och AlphaZero använder sig av neurala nätverk och en stor skillnad gentemot de traditionella schackdatorerna är att den som programmerar inte kan se hur datorn resonerar. Ett neuralt nätverk består av en massa lager med olika noder som skickar information mellan varandra, vilket resulterar i en massa vikter (typiskt nummer mellan 0 och 1) som visar hur starka sambandet mellan två noder är. Men det är väldigt svårt, om inte omöjligt, att se hur dessa vikter resulterar i hur den resonerar på schackbrädet. Den är inte transparent på det sättet utan mer av en black box. Det kan göra oss obekväma, och även om AI tillämpas allt mer i olika branscher så finns det motstånd inom t ex sjukvården, att känna igen cancer på ett tidigt stadium utifrån bilder från screening, eller i byggbranschen, eftersom man typiskt inte bara vill ha bra och korrekta svar utan också vill förstå hur den resonerar.

Något man också observerat när man analyserat hur AlphaGo och AlphaZero spelat Go och schack är att spelstilen skiljer sig från de traditionella datorerna. Man har beskrivit dem som mer intuitiva och kreativa, mer människolika helt enkelt. Många erfarna schackspelare som stormästare har också en intuitiv förståelse av spelet och kan värdera situationer lite annorlunda än de traditionella datorerna som använder mer av brute force, alltså den stora beräkningskraften. Duktiga schackspelare kan offra pjäser för att för att nå långsiktiga strategiska fördelar som inte är enkla att sätta ord på. Denna intuition som bygger på deras stora erfarenhet har en parallell i att de nya schackdatorerna inte är regelstyrda utan erfarenhetsbaserad medels maskinlärande. Detta har gjort många fascinerade och en del bekymrade. Men varför?

Tänka snabbt och långsamt

Vi återvänder till vår modell kring vårt psykologiska fungerande med tänkandet i centrum. Kan vi se liknande resonemang mellan hur schackdatorer fungerar och hur vi själva tänker? Ja, här tycker jag finns en tydlig parallell i nobelpristagaren Daniel Kahnemans Tänka snabbt och långsamt. I enlighet med vår modell ovan tänkte man ofta inom beteendeekonomin att vi är rationella och vinstmaximerande och fattar beslut i enlighet med detta. Kahneman problematiserade detta och titeln på boken visar på två olika system vi kan använda när vi tänker och fattar beslut.

System 1 är vårt instinktiva, emotionella och snabba system. Det använder vi typiskt när vi bedömer andras ansiktsuttryck, värderar avstånd i trafiken, associerar i ordlekar. (Svara snabbt: Vem börjar i schack? Vad är det för färg på snö? Vad dricker kon?)

System 2 är det logiska och långsamma systemet som vi använder när vi räknar ut 36 × 17 i huvudet, värderar logiska resonemang, noggrant förbereder oss för ett lopp.

Vad Kahneman visade i experiment efter experiment var att system 1 i många fall var inblandat när vi tog t ex ekonomiska beslut, t ex i hur vi värderar risker. Vardagligt är det enkelt att se hur vi ofta använder båda, t ex om vi ska köpa ett hus. Då kanske vi jämför pris, läge, storlek, skick osv med en lista på våra önskemål och budget, men sen går vi på visningen och bara känner ”Här ska vi bo!” eller ”Njaee”. Vi är inte så logiska och rationella som vi (och många tidigare beteendeekonomer) ofta tror.

Om vi nu jämför med AI-utvecklingen så har de traditionella programmen och schackdatorerna mycket gemensamt med vårt system 2. Det är ofta det vi tänkt att vi ska ha datorerna till, att erbjuda mycket beräkningskraft och att den följer en logik vi bestämt. T ex i strukturmekaniska beräkningar i industrin där man gör datormodeller av hus, bilar eller produkter och därefter enligt matematiskt härledda principer beräknar om de går sönder när de belastas. Vi som utbildat i detta har länge argumenterat att det alltid behövs en människa som förstår datorsystemet i grunden och de strukturmekaniska principerna så man kan utvärdera rimligheten i beräkningarna och ta ansvar för resultaten. Om du räknar fel och huset rasar kan du som konstruktör bli åtalad.

När det gäller de nya AI-modellerna som ChatGPT som använder sig av neurala nätverk så påminner de i hög grad snarare om system 1, alltså det snabba, emotionella och instinktiva system. Länge i utvecklingen matade man modellerna med mer och mer data utan att något hände, men sedan kom man över någon tröskel (de har använt sig av hela öppna internet som träningsdata) varvid språkmodellerna plötsligt börjat ge ifrån sig vettiga, nyanserade och, till synes, empatiska svar på komplexa frågor som moraliska dilemman, anpassat sin stil och skrivit dikter efter instruktioner. De kan också ha fel och hallucinera, som många när de av bara farten svarar ovan att kon dricker mjölk.

Jag tror vi har blivit fascinerade och bekymrade av detta av två anledningar. Den första är att vi innan maskinlärande- och stora språkmodellerna, LLMs, såg datorer som något som kompletterade oss, de var logiska enligt system 2 och var överlägsna oss där, medan vi kunde vara mer intuitiva eller instinktiva, känslomässigt värderande och kreativa enligt system 1. Men nu kommer AI-modellerna och är i vissa fall redan idag bättre än oss på det. Vad blir då vår roll när datorerna är bättre på oss än allt? Kommer det att slå ut vissa yrkesgrupper då, något som vi redan nu ser tecken på när kundtjänstmedarbetare ersätts med AI-botar? Här kan man med rätta jämföra AI-revolutionen med mekaniseringen av jordbruket eller automatiseringen i tillverkningsindustrin. Och finns det någon risk att datorerna tar över? Här talar man ibland om ”the AI-alignment problem”, alltså hur vi kan säkerställa att de intressen som AI:n kommer ha går i linje med våra egna. En annan variant av den frågan är i vilken mån en lägre intelligens (vi) kan kontrollera en högre intelligens (AI:n).

Dock ska vi här vara medvetna om att Boströms gemtillverkande maskin bygger på en dator eller AI som fungerar enligt system 2, alltså den formella regelbaserade logiken, och inte verkar rimlig för de neurala nätverken och stora språkmodellerna som är starka på att väga olika perspektiv mot varandra. När jag testar ChatGPT på strukturmekaniska problem så resonerar den på rätt sätt men får en massa detaljer fel, även om GPT4 är bättre än GPT3. Den kan följa en logik, men framför allt är den nyanserad och väger enkelt olika perspektiv och synsätt mot varandra. Det är inte någon överordnad logik som styr den. Här upplever jag att de båda synsättet blandas ihop i diskussionerna – å ena sidan är AI nyanserad och kreativ (främst då generativ AI) enligt system 1, å andra sidan är den så blint regelstyrd och kommer ställa till det för oss enligt system 2.

Emergens

Den andra anledningen till att vi kan vara fascinerade och bekymrade stavas emergens. Det betyder förenklat hur man får fram mer komplexa entiteter genom att kombinera enklare byggstenar. Dessa nya entiteter har som regel egenskaper som inte kan förutsägas eller härledas från de enklare byggstenarnas egenskaper. Exempelvis har vatten egenskaper som en viss densitet, ytspänning, frys- och kokpunkt som inte kan förutsägas utifrån beståndsdelarna vätes eller syres egenskaper. Inom komplexitetsteorin kan vi modellera (och observera) komplexa beteenden hos stora flockar av starar även om varje stare följer enkla spelregler vad gäller avstånd till staren intill.

Ett annat exempel på emergens är den utbredda uppfattningen att vår utveckling kan beskrivas i termer av materia som emergerar till liv, som emergerar till medvetande. Detta är en idag vanligt förekommande form av materialism som innebär att även om man ser medvetande som en aspekt av verkligheten är materian mer grundläggande. Medvetande betraktas ur det synsättet som ett epifenomen till materia. Emergens blir då en väldigt kraftfull princip eller fenomen som förklarar hur liv och medvetande uppstår. (En begränsning med detta sätt att förstå verkligheten är att vi har svårt att reda ut hur medvetande sprungit ur liv och materia, samt hur medvetande nu förhåller sig till materia, det vi kallar det svåra problemet – The hard problem of consciousness.)

Det som då ofta upplevs oroande med denna syn på emergens är att vi inte kan kontrollera eller förutsäga vilka egenskaper AI:n får, t ex när den används för att utveckla sig själv. Än så länge är LLMs bara en avancerad autocorrect som gissar sannolikt vettiga svar på en given prompt, men i och med att det är en black box så kan vi ju inte veta säkert vad som händer på insidan förutom det vi kan observera på utsidan. Något som här ibland diskuteras är när AI:n kan utveckla självmedvetande eller någon form av egen agens.

Exempel på emergens tycker jag vi kan se i de LLMs som vid tillräcklig (enorm) mängd med träningsdata plötsligt började visa prov på en respons som många hade svårt att skilja från mänsklig. Kom ihåg hur en ingenjör på Google för drygt två år sedan gick ut och hävdade att deras chatbot var självmedveten? Det finns också många exempel på när människor skapat närmare kontakt med AI:n än med sina medmänniskor. Filmen Her (2013) är verklighet idag.

Kan då en AI som blir tillräckligt komplex och intelligent i sin informationsbearbetning enligt våra resonemang ovan bli självmedveten och utveckla en egen vilja? Vi kan ju aldrig veta säkert vad som händer på insidan av en AI, lika lite som vi säkert vet vad som finns på insidan av våra medmänniskor. De kanske alla är zombies och du som läser detta kanske är den enda verkligt självmedvetna varelsen (solipsism), något vi aldrig kan motbevisa. Och vad innebär självmedvetenhet egentligen? Nu ska vi gå över till vuxenutvecklingen och resonera kring hur vi kan förstå intelligens och utveckling i allmänhet.

Vuxenutvecklingens olika grenar

Inom vuxenutvecklingen studerar vi hur människor, individer och i viss mån även kollektiv, utvecklas. Inriktningen av vuxenutveckling jag arbetat mest med är stadieteorier eftersom jag tycker de ger bra svar på var vi kommer ifrån och vart vi skulle kunna vara på väg, och hur det påverkar hur vi fungerar idag.

En vanlig uppdelning av vuxenutvecklingens teorier är i två olika grenar, där den första kan delas upp ytterligare två. Den första grenen fokuserar på komplext tänkande med å ena sidan stadieteorier som Model of Hierarchical Complexity (MHC) och Lectical Assessment System (LAS), och å andra sidan av dialektiskt tänkande. I MHC och LAS har hierarkiska stadier av komplexitet formulerats som kan förstås som nivåer av ökande abstraktionsgrad i tänkandet, från enklare till konkret, abstrakt, formellt, systematiskt, metasystematiskt och så vidare till mer komplexa. Dialektiskt tänkande är inte stadiebaserat men beskriver en ökad förmåga till fluiditet i tänkandet och förmåga att tänka mer organiskt i termer av process, struktur, relationer och system som transformeras. Om vi jämför de båda fälten med Kahnemans två system så menar jag att stadieteorierna ligger nära system 2, vilket syns när man testar vilket stadie någon opererar från genom logiska tester på olika nivåer som man antingen klarar av eller ej. Det dialektiska tänkandet ligger då närmare system 1 eftersom det inte handlar om att bygga upp logiska resonemang utan vara mer rörlig i tänkandet. Det utvärderas i intervjuer som bedöms utefter hur många och djupa aspekter av de olika momenten man uppvisar i sina resonemang.

Även om det sällan görs explicit tycker jag att figur 1 vi använde innan också fungerar för att beskriva hur människan fungerar enligt MHC. Det är en behaviouristisk teori där man menar att mänskligt beteende kan förstås som problemlösande på olika nivåer av komplexitet. Man spekulerar inte så mycket kring vad som händer i människans inre, man behåller det som en black box. Vi bedömer det vi ser, prestationen att lösa en given uppgift eller producera något som en text. Denna gren av vuxenutvecklingen ger som jag ser det alltså inte någon ytterligare klarheten i frågan om möjlig självmedvetenhet och agens hos en AI.

Den andra grenen handlar om jagutveckling enligt Loevinger och Cook-Greuter och meningsskapande enligt Kegans subjekt-objektteori. Här mäts utvecklingen med hjälp av meningskompletteringstest eller intervjuer. Dessa kan beskrivas som mer holistiska och tar med olika aspekter av vårt inre, hur vi tar perspektiv och relaterar till andra och vårt inre. Det riktas ofta kritik mellan dessa båda grenar. Från det första lägret hörs ofta att jagutveckling och mening är otydligt definierade och att allt egentligen kan reduceras till komplext resonerande där beteendens utveckling kan mätas med högre precision. Från det andra lägret kan man höra att de första missar poängen och reducerar något komplext till något alltför snävt där barnet (t ex subjektet) kastas ut med badvattnet. Själv har jag jobbat med främst MHC men jag tycker att jagutvecklingen erbjuder ett bättre mått på den utveckling jag tycker är relevant här. Att vara en komplex problemlösare är inte nödvändigtvis ett bra mått på personlig utveckling och mognad. Figur 2 nedan illustrerar hur vi är i interaktion med vår omvärld genom vårt sätt att skapa mening snarare än att bara tänka. Även om jag tycker det är mer rättvisande att se oss som meningsskapande varelser än att reducera oss till endast tänkande varelser hjälper det oss inte så mycket i diskussionen kring huruvida självmedvetenhet kan emergera från tänkande om vi inte kan närmare förklara vad meningsskapande är.

Figur 2. Relation mellan verklighet och meningsskapande. Verkligheten som vi skapar mening kring kan också vara en del av vårt inre.

Det finns också en mellanväg som initierades av främst Tom Hagström som går ut på att identifiera grundläggande utvecklingsaspekter av meningsskapande utifrån Kegans teori och MHC. Detta är en väg jag tror är mest fruktbar i frågorna vi diskuterar här och själv utgår jag framför allt från jagutvecklingen enligt Cook-Greuter. Om man från ett MHC-perspektiv utgår från att jagutveckling eller meningsskapande kan reduceras till komplext tänkande så menar man att komplext tänkande utgör den mest grundläggande och primära aspekten. Min utgångspunkt är att vi behöver fyra grundläggande dimensioner för att fånga jagutveckling, nämligen perspektivtagande, komplext tänkande, identitet och en handlingslogik som visas i figur 3 nedan. Detta är en del av det ramverk som jag kallar CDA, collective development archetypes, som jag håller på att utveckla och som befinner sig i granskning i en vetenskaplig tidskrift.

Figur 3. Meningsskapande uppdelat i de fyra aspekterna perspektivtagande, tänkande, identitet och handlingslogik som här visas som isolerade delar även om de kan vara sammanvävda. Verkligheten kan vara vår yttre omvärld men också omfatta vårt inre och våra relationer.

Perspektivtagande innebär hur vi tar in information och om vi tittar i figur 1 som illustrerar oss som tänkande varelser med idealet att vi tar in information från vår omvärld objektivt, så skulle de allra flesta samhällsvetare se detta som problematiskt – och så även jag. När någon hävdar att denne är objektiv innebär det för mig snarare att man ser en fråga eller fenomen ur ett 3:e-personperspektiv. Men jag och andra inom jagutvecklingen menar att det finns högre ordningens perspektivtagande, 4:e- och 5:e-personperspektiv. När jag utvecklar teori här definierar jag perspektivtagande som en relation mellan ett objekt och ett subjekt – och det finns alltid ett subjekt som är konstituerat på ett visst sätt. Denna form av perspektivmedvetenhet är inkluderad i de högre ordningarna än 3:e-personperspektivet. Vi behöver också nämna 1:a och 2:a-personperspektiv som innebär att ta in information om den omgivande konkreta och fysiska omgivningen via ens sinnen respektive att se den konkreta världen ur någon annans ögon, något som kan testas med Sally-Anne testet.

Av dessa utvecklingsaspekter är komplext tänkande väl beforskat, medan de övriga inte har lika väl utvecklade teoribildningar knutna till sig inom vuxenutvecklingsforskningen. Identitet/varande beskriver de känslomässiga eller affektiva aspekterna av meningsskapandet och denna är enklast att se som sammanflätad med de andra aspekterna. Vi tenderar att identifiera oss med hur vi tar perspektiv och med vårt subjekt. Många, t ex Piaget, betraktade tankar vara sammanvävda med känslor, och en handlingslogik har som regel en känslomässig komponent som driver oss framåt.

Handlingslogiken, ”action logic” som Torbert kallade jagutvecklingsstadierna i sin Action Inquiry, beskriver inte bara hur vi tänker kring världen men snarare hur vi planerar och genomför handlingar – och vi kan också se perspektivtagande och tänkande som handlingar. Gapet mellan att förstå och handla inom klimatforskningen illustrerar att de inte med nödvändighet hänger ihop. Handlingslogiken beskriver en logik för att handla men också en agens och drivkraft eller egen motivation att handla.

Alla dessa kan betraktas som olika komponenter eller facetter av meningsskapande. De kan som jag ser det förstås för sig själva eller som djupt sammanflätade. Detta är en mycket kort introduktion och det återstår arbete att tydligare definiera och skapa teori kring dessa, något jag engagerat mig i de senaste åren. Vuxenutvecklingsperspektivet beskriver dessutom hur dessa olika dimensioner samspelar i vår utveckling, när vi gått från mer fysiskt orienterade varelser till mer mentalt orienterade.

Den viktigaste utgångspunkten här är att utvecklingsaspekterna är grundläggande, vilket innebär att ingen av dem är epifenomen som kan reduceras till någon annan. Exempelvis kan vi inte reducera perspektivtagande – hur vi tar in information – till komplext tänkande – hur vi sedan organiserar informationen i vårt inre. Vår handlingslogik kan sedan hänga ihop med vårt komplexa tänkande, men gör det inte med nödvändighet. Och vårt varande, våra känslor och identitet, typiskt i relation till andra varelser, kan inte heller reduceras till hur vi organiserar informationen. Det är inte så att vår förmåga till perspektivtagande utvecklats ur vårt komplexa tänkande.

Tillbaka till frågorna

Men nu tillbaka till frågeställningarna som vi inledde med och vi ska beta av dem en och en utifrån synen presenterad ovan i figur 3.

Vad innebär AI och AGI i relation till vuxenutvecklingsteorierna? Om vi tittar på AI i form av maskinlärande, neurala nätverk och LLMs så är modellerna bara sätt att koda och organisera information. Det motsvarar hur vi tänker, men det är inte någon handlingslogik eller egen form av agens. Även om den kan vara generativ är det vi som ger den promptar och den som svarar.

AGI brukar definieras som en förmåga att lösa en bred och generell uppsättning problem som är jämförbar eller överlägsen människans till skillnad från snäv AI som kan vara specialiserad på en viss sorts problem som att spela schack. Men båda fallen bygger på en syn där intelligensen likställs med komplext tänkande och problemlösande. Båda dessa kan illustreras med figur 1 som bara visar tänkande i relation till omvärlden.

AI, som LLMs, handlar alltså uteslutande om komplext tänkande, men har den inte någon förmåga till perspektivtagande? Detta är intressant och bland det första jag gjorde med Chat GPT 3 var att testa perspektivtagande enligt Sally-Anne testet i text, vilket den faktiskt klarade. Barn runt 4-5 år klarar normalt av det medan barn med autism har svårt för det. Det fanns ett liknande test som utvecklats av Robert Selman med kollegor som barn brukar klara runt 10-12 års ålder som jag bedömde att den klarade. Men jag är ändå inte övertygad om att den verkligen tar perspektiv eller om den bara organiserar information på sätt som är konsistenta med att klara testet.

Kan då AI och LLMs, om de blir tillräckligt komplexa i sitt tänkande, utveckla självmedvetenhet som i en subjektiv upplevelse och meningsskapande? Utifrån ramverket och resonemangen ovan, nej. Perspektivtagande, en känsla av identitet och handlingslogik kan inte emergera från komplext tänkande eftersom alla utgör olika grundläggande aspekter av utvecklingen där ingen av dem kan reduceras till någon annan.

Hur är det med the AI alignment problem? Hur kan vi se till att AI:s intressen kommer vara i linje med våra egna? Igen, komplext tänkande och organisering av information är en aspekt och att ha egna intressen och agens är en annan. Än så länge får AI:n bara en förmåga att handla utifrån de uppgifter och handlingsmöjligheter vi ger den. Agens och egna intressen kommer inte emergera ur tillräckligt komplex organisering av information. Idag har AI-system främst förmåga att lösa abstrakta uppgifter som att spela schack medan till synes enklare motoriska uppgifter som att fysiskt flytta en schackpjäs från en rutan till en annan har visat sig betydligt svårare.

Kommer AI att utvecklas förbi oss så att den kontrollerar oss snarare än att vi kontrollerar den? Utifrån resonemangen ovan, jag tycker meningsskapande är ett betydligt bättre mått på utveckling och mer relevant i det här fallet. Och AI ägnar sig inte åt meningsskapande då där saknas allt utom komplext tänkande och organisering av information. Så jag ser inte hur det skulle gå till. Men det finns ju många olika sätt där vi gör oss beroende av AI som teknologi och glömmer vår egen förmåga att lösa motsvarande uppgifter, precis som vi är beroende av all annan teknologi idag.

En annan och i min mening intressantare fråga är hur sammanvävda vi kommer bli med AI i framtiden. Om vi betraktar AI i bred mening som en teknologi som kan bli en förlängning av oss själva ungefär som vårt språk så kan gränsen bli diffus. Och även om man oftast tänker på detta som ett verktyg för att tänka mer komplext så kan ju språk och ren information utformas på så sätt så vi kan komma åt de andra aspekter av vårt varande. Intressant är också hur vi skapar en relation till en generativ AI genom att projicera ut en subjektivitet som inte finns där.

Det finns mycket mer att säga om AI i relation till vår intelligens och utveckling och genomgången här på många sätt förenklad. Framför allt om hur AI fungerar. Det jag här vill göra är främst att koppla ihop dessa frågor med vuxenutvecklingsforskningen och visa hur våra olika metafysiska antaganden kring vårt medvetande och vårt tänkande är relevanta för vad vi förväntar oss om framtiden för AI. Min uppfattning är att vi människor är mer komplexa än vad många inom AI-fältet beskriver eller antar. Det är något jag tycker vi borde diskutera i mycket högre grad.

Användbara källor

Alla vuxenutvecklingsteorier finns beskrivna här på min hemsida och i min bok Vuxen men inte färdig.

Black box i The Guardian, avsnitt 1 handlar om Geoffrey Hinton som precis fått nobelpriset i fysik: https://www.theguardian.com/technology/series/blackbox

Matthew Sandler Gamechanger om hur AlphaZero spelar schack https://www.youtube.com/@SiliconRoadChess

Google-forskaren som trodde chatboten var självmedveten: https://www.theguardian.com/technology/2022/jul/23/google-fires-software-engineer-who-claims-ai-chatbot-is-sentient

Hagström Stålne – The Generality of Adult Development Stages and Transformations: Comparing Meaning-making and Logical Reasoning: http://www.integral-review.org/documents/Hagstrom%20Stalne,%20Vol%2011%20No%203%20Special%20Issue%20European%20Acad%20Trends.pdf

Tom Hagström har i sin bok The developing human mind ett avsnitt om AI som är ungefär i linje med mina resonemang: https://link.springer.com/book/10.1007/978-3-031-28647-6

Sally-Anne testet: https://en.wikipedia.org/wiki/Sally%E2%80%93Anne_test

Her (2013) https://www.youtube.com/watch?v=dJTU48_yghs

Ex Machina (2014) https://www.youtube.com/watch?v=EoQuVnKhxaM

Max Tegmarks Sommarprat 2023: https://sverigesradio.se/avsnitt/max-tegmark-sommarpratare-2023

AlphaGo – The movie: https://www.youtube.com/watch?v=WXuK6gekU1Y

Daniel Kahneman – Tänka snabbt och långsamt https://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow

The Routledge International Handbook of Dialectical Thinking https://www.routledge.com/The-Routledge-International-Handbook-of-Dialectical-Thinking/Shannon-Mascolo-Belolutskaya/p/book/9781032324678?srsltid=AfmBOoojq8ALG9z3lr1ygCfq7MVw9kHXf46lID2h1uBMYcNqBlR2erAN

Yann LeCun hos Lex Fridman: https://www.youtube.com/watch?v=5t1vTLU7s40