Under sommaren har jag hunnit läsa en del som ligger utanför mitt fält, t ex Max Tegmarks bok Liv 3.0 som ger en introduktion kring artificiell intelligens, dess utveckling och risker. Dessutom har jag lyssnat på en del paneldebatter och poddar i ämnet och tänker nu dela några reflektioner främst utifrån vad ett vuxenutvecklingsperspektiv kan tillföra diskussionen om AI. Jag sammanfattar först några grundläggande begrepp, relaterar dem till vuxenutvecklingens två grenar om komplexitet och mening och syn på medvetande. Mer praktiska aspekter som utveckling av arbetsmarknaden, maktbalanser, intelligenta automona vapensystem, utbildning och manipulation av åsikter och val lämnar jag därhän. Det är väl knappast något som kan gå snett där…!?
Vad är intelligens?
Först, vad menas i det här sammanhanget med intelligens? Tegmark och många andra i fältet utgår från synen att intelligens innebär förmåga att lösa komplicerade problem (man verkar inte skilja på komplicerade som har entydiga lösningar och komplexa öppna problem). En tillämpning som funnits länge är schackspelande datorer och det är en bra utgångspunkt i den här diskussionen. Att spela schack innebär först att följa reglerna för hur pjäserna får lov att gå och sedan att besegra motståndaren. Här kan man programmera datorn med principer som att det är bra att vinna material (ta fler och bättre pjäser än motståndaren) och att maximera sitt eget handlingsutrymme i termer av antal möjliga drag. Man matar också in kända spelöppningar och slutspel.
Schackdatorernas främsta styrka ligger i förmågan att räkna många drag framåt. En bra spelare kan räkna taktiskt kanske 5-7 drag framåt innan det blir oöverstigligt och sedan värderar man ställningarna som kommer att uppstå. Man kan också spela mer strategiskt och långsiktigt och eftersträva att få mindre positionella fördelar att växa, något som kräver mer intuition. Med intuition menar jag en känsla för vad som fungerar eller inte och vad som är en gynnsam ställning att eftersträva, ungefär som matematikern som har en känsla för att ett visst samband gäller innan det har bevisats. I det mer kortsiktiga taktiska spelet är datorerna förstås bättre tack vare den överlägsna exakta beräkningskapaciteten, så ska man slå en dator bör man satsa på att gneta på med det mer långsiktiga strategiska spelet.
En milstolpe i schackdatorutvecklingen var förstås när IBM:s Deep Blue besegrade världsmästaren Garri Kasparov 1997 och sedan dess har datorer förstås blivit än kraftfullare. Efter sista partiet anklagade Kasparov IBM för att fuska eftersom datorn offrade en springare mot en bonde på ett långsiktigt sätt som bara en människa borde kunnat göra. Kasparov är dock känd att vara en ganska dålig förlorare och han tog senare tillbaka anklagelsen. En annan spelutveckling som rönt uppmärksamhet är den i spelet Go som är svårare för datorer än schack eftersom den mänskliga intuitionen här anses viktigare än beräkningsförmågan. Men 2016 besegrades överraskande den bästa spelaren Lee Sedol av Googles AI AlphaGo. Anmärkningsvärt var att AlphaGo bröt mot en del förhärskande uppfattningar och mänskliga intuitioner om vad som är en sund strategi.
Regelmässig inlärning kontra maskininlärning
Vad var det som var så unikt med AlphaGo? Jo, istället för att värdera ställningar och drag med avancerade algoritmer som de traditionella schackdatorerna använde AlphaGo maskininlärning med neurala nätverk vilket innebär att datorn spelar en stor mängd partier, utvärderar resultatet efter hand och lär sig genom att göra mer av det som ger önskvärt resultat. Neurala nätverk kan beskrivas som en samling elektroniska noder och kopplingar som fungerar ungefär som vår hjärna, om vissa kopplingar aktiveras så kommer de förstärkas. Om ett neuralt nätverk får se tillräckligt många olika bilder av en katt, bil eller vägskylt samtidigt som den får reda på att det här föreställer en katt, bil eller vägskylt så kommer den bli bättre på att urskilja detta utan att man på något sätt försöker ge den några regler för varför det är en katt, bil eller vägskylt den ser. Ett enklare exempel på detta som Tegmark anger är hur Googles DeepMind lärde sig spela det klassiska Atarispelet Breakout med den enkla instruktionen att maximera sin poäng. Efter många försök hade datorn helt självständigt utvecklat en ganska avancerad strategi som innebar att få upp bollen ovanför alla brickor. Detta påminner om skillnaden mellan klassisk och operant inlärning för hundar som jag beskriver i min bok om vuxenutveckling. I den operanta inlärningen får hunden inga instruktioner utan bara en belöning när den gör rätt vilket kräver en hel del tålamod hos hundtränaren men kan ge snabbt och precist resultat.
Efter segern utvecklades AlphaGo till AlphaZero som man satte att spela schack mot sig själv under 24 timmar. Egentligen innebar utvecklingen en avveckling av AlphaGo eftersom AlphaZero var mer generell, bredare och därför mer förutsättningslös än AlphaGo. Den fick alltså inga riktlinjer annat än reglerna för schack utan fick helt och hållet lära sig själv. Därefter utmanade AlphaGo de bästa datorerna i slutet av 2017 och vann stort, t ex mot Stockfish som anses vara en av de starkaste och ofta används som referens, även om förutsättningarna inte var optimala för den senare.
En skillnad mellan AlphaZero och Stockfish är alltså att den senare använder olika algoritmer som utvecklats av människor medan den förra helt har lärt sig själv. Vi har alltså inte kontroll över hur AlphaZero ”tänker” och varför den gör som den gör. Den kan beskrivas som mer erfarenhetsbaserad och ”intuitiv” medan den senare är regelstyrd. AlphaZero är alltjämt flexibel och självlärande i och med att den fortsätter att lära sig och självständigt utvecklar sitt neurala nätverk medan de traditionella datorerna är mer statiska och rigida hur avancerade de än är, något som har både för- och nackdelar. Anta att vi använder oss av en AI som beslutsstöd. Då kanske en AI som fungerar som AlphaZero skulle vara överlägsen i att komma fram till de bästa lösningarna, men samtidigt skulle vi inte ha något som helst kontroll över varför vi får de råd vi får. Om vi accepterar råden som AlphaZero ger så lämnar vi ifrån oss allt ansvar för resultatet. Det kanske blir bra resultat men vi skulle inte lära oss så mycket av det och vi skulle då göra oss beroende av den.
Inom spel som schack ser vi alltså en utveckling från regelstyrda statiska algoritmer till självlärande neurala nätverk som inte kräver någon stor kännedom om schackspelet mer än reglerna. Men även om det fortfarande handlar om begränsade domäner med tydliga regler och kriterier för framgång så går utvecklingen häpnadsväckande snabbt, något som fått offentliga personer som Tegmark, Elon Musk, Stephen Hawking och Sam Harris att höja ett varningens finger. Här är en paneldebatt som Tegmark leder med många av de mest framstående personerna i fältet. AlphaZero visar också på en utveckling från domänberoende och specifik intelligens AI till en mer generell intelligens AGI som kan tillämpas inom vilket område som helst, vilket kännetecknar den mänskliga intelligensen. Så när AGI om några decennier skulle utvecklas till att bli smartare än alla människor inom alla domäner borde den följaktligen själv kunna driva den artificiella intelligensen vidare och vi får en explosiv utveckling där vi människor står vid sidlinjen. Men hur långt är egentligen steget från AlphaZero och liknande system till övermänsklig AGI?
Intelligens ur ett evolutionärt perspektiv
Om vi jämför vår intelligens med nuvarande AI-system för att försöka förklara varför vi är så bra på det generella så kan vi utgå från ett evolutionärt perspektiv. Visst kan vi lära oss att spela schack och lära oss av gemensamma erfarenheter men i bredare mening beskrivs vår intelligens bättre som en konsekvens av en längre evolutionär process där vi formats av miljön och livsvillkor att röra oss, koordinera information från ögonen med arm- och handrörelser att röra oss och lyfta saker. Sedan att alstra ljud och utveckla språk så vi kan samarbeta, skapa gemensamma symboler, berättelser och myter, utveckla vetenskapliga metoder och medvetenhet om sociala kontexter och så vidare, för att sammanfatta några hundra miljoner års utveckling. Man kan uttrycka det som att människor inte har en given rationalitet utan ständigt bollar mellan olika sociala rationaliteter och drivkrafter i form av koder, regler, tabun, samt uppgifter och mål av olika slag. I praktiken navigerar vi mellan dessa olika ramar med något vi kan kalla ett sunt förnuft guidat av olika känslor som uppstår när vi blir bekräftade eller trampar i klaveret. Så om vi ska förstå vad generell intelligens är med vårt eget tänkande som modell så behöver vi se hur det byggts upp genom historien. I schackexemplet har ju datorerna haft svårare att motoriskt flytta en pjäs från en ruta till en annan än att räkna fram vilka drag som är bäst. Utvecklingen av självgående robotar från t ex Boston Dynamics går framåt men verkar fortfarande gå ut på att man programmerar dem med regler snarare än maskininlärning eftersom det är för dyrt att låta robotarna lära sig helt självständigt genom att krascha gång på gång. Detta illustrerar att det vi betraktar som det högre abstrakta tänkandet är mycket enklare att programmera än det lägre motoriska.
Tanken att en AGI behöver byggas nerifrån och upp går i linje med idéer av Michael Commons om staplade neurala nätverk, stacked neural networks, där man har ett neuralt nätverk för varje nivå av hierarkisk komplexitet enligt MHC. Förenklat innebär detta att man först lär AI motorisk intelligens, därefter tal och begrepp, därefter språk, abstrakta variabler och samband för att därefter bygga på med mer komplexa och avancerade sätt att bearbeta information. Precis som hur vi människor utvecklas stadie för stadie. Först då borde man kunna emulera en människa, en android, enligt Commons. Men skulle denna AGI kunna bli självmedveten, givet att det fungerar?
Självmedveten AI?
Tegmark beskriver kortfattat en syn på medvetande och subjektivitet som ett i grunden fysiskt fenomen. Inte så överraskande eftersom han är fysiker. En fysisk struktur, som en hjärna, ger upphov till en förmåga att bearbeta information som i sin tur ger upphov till medvetande. Medvetande skulle alltså kunna uppstå, emergera, som en konsekvens av tillräckligt komplex informationsbearbetning. Vidare argumenterar Tegmark för att materian, t ex hjärnvävnaden, inte behöver vara komplex i sig för medvetande utan att det räcker med en tillräckligt komplex informationsbearbetning för att ge upphov till medvetande som definieras som att ha en subjektiv upplevelse:
”…det är bara informationsbearbetningens struktur som har betydelse, inte strukturen hos materian som utför informationsbearbetningen.”
Med all ödmjukhet och respekt för att AI inte är mitt specialområde är jag övertygad om att detta är fel och att datorer eller AI-system aldrig kan bli självmedvetna. Varför? Helt enkelt för att medvetande och subjektivitet inte är något som emergerar från en tillräckligt utvecklad förmåga att informationsbearbetning. Snarare är informationsbearbetning en feature av tillräckligt utvecklat medvetande som är en mycket mer grundläggande aspekt av verkligheten. I termer av MHC finns medvetande hela vägen ner till de lägsta stadierna. Annars behöver man besvara frågan på vilket MHC-stadie som medvetande och subjektivitet uppkommer. Även de enklaste organismerna har en subjektivitet även om deras sätt att processa information är högst rudimentär och betydligt enklare än avancerade AI-system. Ur ett panpsykistiskt perspektiv har även atomer en subjektivitet, men så långt behöver vi inte gå i det här resonemanget. En AGI kommer följaktligen inte att vara kapabel till vad vi avser med självreflektion, även om den nog skulle komma fram till att dess egen vidare existens är instrumentell i att uppfylla uppgiften den är satt till.
Men även om den superintelligenta AGI inte kommer vara självmedveten och ha en egen subjektivitet, vad kan vi då förvänta oss att det har för inställning till oss? Här kan vi vända oss till den andra grenen av vuxenutveckling som handlar om meningsskapande. Mening besvarar frågor som vem vi är, hur vi gör världen och alla intryck begripliga för oss och vem/vad vi känner tillhörighet till. Vi människor är i grund och botten sociala varelser där samspelet inte bara utvecklat vår sociala intelligens utan också ger oss en känsla av tillhörighet och vilja att knyta an till andra människor och grupper. En central aspekt av vuxenutvecklingen är att hantera detta sociala samspel, att ta vidare perspektiv och att känslomässigt kunna relatera till allt vidare grupper samtidigt som man bryter sig loss från andra. I vår utveckling kan vi pendla mellan mer självcentrerade förhållningssätt och mer kollektivistiska, men något vi kan räkna med hos en artificiell intelligens är att den inte kommer att hysa några som helst känslor för oss människor. Inte heller känslor och social tillhörighet emergerar ur tillräckligt komplex informationsbearbetning. Eftersom medvetande inte kan reduceras till information går det förstås inte heller att ladda upp sitt medvetande på nätet.
Moraliskt AI?
När man diskuterar moralisk utveckling brukar man relatera det till en förmåga till socialt perspektivtagande, alltså att kunna se världen ur någon annans ögon. Det är en kognitiv förmåga som utvecklas från 4-5 års ålder då barnen tycker det är roligt att lura föräldrarna att det är godis i en ask de fyllt med småsten. Kan en AGI utveckla en sådan förmåga? Ja, vi bör i alla fall räkna med att den klarar att sätta upp komplexa modeller för hur olika aktörer tänker, känner och handlar i olika situationer och anpassa sig efter det. Det är något som illustreras väl i filmen Ex machina där Alicia Vikanders Ava försöker manipulera den mänskliga motparten Caleb i ett Turingtest genom att trycka på hans känslomässiga knappar. Ava är tillräckligt avancerad att imitera och läsa av känslomässiga uttryck. Är det en film om artificiell intelligens jag verkligen rekommenderar så är det den. Så även om ett AGI inte kan uppleva, känna eller socialt relatera till en annan varelse kan den ha en komplex representation av människors känslor och reaktioner. Och även om en AGI inte kan knyta an känslomässigt så kan den sätta ett instrumentellt värde på någon eller något om det är rationellt för det högre målet eller om den programmeras till det.
Vi bör alltså knappast förvänta oss att en AGI kommer ha någon känslomässig koppling till oss människor, vare sig positiv eller negativ. Inte heller kommer vi kunna tillskriva AGI någon moralisk agens. Den är helt rationell, vilket leder oss till frågan om vari denna rationalitet kan består, alltså vilket AGI’s överordnade mål och syfte är och bör vara, och i vilken mån den är i linje med vad som är i mänsklighetens intresse. Detta har illustrerats av Nick Boströms exempel med en AI som ges uppgift att tillverka så många gem som möjligt så den ser människor som ett hinder i den uppgiften varvid det blir rationellt att utrota mänskligheten.
Icke desto mindre behöver man ta hänsyn till moraliska ställningstaganden när man programmerar AI, till exempel när det gäller huruvida självkörande bilar ska väja för en folksamling om alternativet är att döda föraren. Det här visar på svårigheten med den här typen av frågor eftersom vi själva är så långt ifrån att vara överens om hur man ska hantera det extremt idealiserade spårvagnsproblemet. Det problemet illustrerar är snarare skillnaden mellan mer instrumentella och rationella förhållningssätt (aktiv handling som offrar en människa) och mer känslomässiga (vara passiv och låta fem människor dö). Om du tycker att ettdera alternativet är självklart är det bara att skruva problemet i någon riktning: det är 1000 istället för fem personer alternativ det är en anhörig du ska offra genom att själv knuffa ner på spåret. Spårvagnsproblemet är i min uppfattning riggat att ställa vårt rationella tänkande i konflikt med vårt känslomässiga förhållningssätt.
Spårvagnsproblemet får illustrera min huvudpoäng att vi å ena sidan är rationella problemlösande och nyttomaximerande individer samtidigt som vi å andra sidan är upplevande, anknytande och känslomässiga varelser. Som individer tenderar vi att luta åt ena eller andra hållet och det kan också gälla grupper av människor. Mitt intryck från Tegmarks bok och från de diskussioner i ämnet jag följt är att AI-communityn domineras av människor som är inriktade på de tekniska, rationella och instrumentella aspekterna av AI. Det är entreprenörer och banbrytande tänkare som är vana att gå sina egna vägar. Då får diskussionen en slagsida mot rationalitet och kognition vilket medför en förhärskande syn att subjektivitet och känslomässiga aspekter underordnas materia, intelligens och problemlösning. Samt att sunda moraliska ställningstaganden med nödvändighet följer av tillräckligt komplext tänkande i ämnet (Sam Harris syn).
Samarbete AI + människa?
Ofta beskrivs AI som något som kan dominera oss om den lyckas bryta sig loss från våra bojor. En positiv konsekvens av den typen av diskussioner är att vi tvingas reflektera kring hur vi själva fungerar, vad det innebär att ha en betydligt högre intelligens än vad vi kan föreställa oss och hur vi kan dra nytta av eller skydda oss mot denna högre intelligens. Hur kan vi skydda oss mot en intelligens vi inte kan föreställa oss?
Samtidigt diskuteras hur vi bättre kan integrera den artificiella intelligensen med vår egen för att skapa ett välfungerande samarbete som mellan människorna och robotarna CASE och TARS i Interstellar. Framför allt Elon Musk diskuterar hur vi kan förbättra gränssnittet och därmed bandbredden i interaktionen mellan människa och maskin så att vi bättre kan integrera AI med vårt tänkande och medvetande. Men från resonemanget ovan följer att det bara är vår kognitiva förmåga som förbättras och inte nödvändigtvis vår tillhörighet. Alla vill bli smartare men inte lika många vill öka sin empati så att vi knyts närmare våra medmänniskor och andra kännande varelser. Hur mycket skulle du vilja öka din känslighet att bli varse andra människors känslomässiga tillstånd? Hur mycket smartare skulle du vilja bli om du samtidigt skulle betala priset av en ökad egen sårbarhet? Snarare är det så att empatin och känsligheten är en konsekvens av hur mycket ens nervsystem klarar att hantera.
Om vi integrerar AI i oss själva är inte frågan huruvida AI är ond eller god utan huruvida vi kan behålla vårt goda omdöme och mänsklighet när vår kognitiva förmåga och makt ökar. Frågan om hur vi hanterar den teknologiska utvecklingen är lika bred och gammal som mänskligheten själv. Den går igen i myter som Prometheus som stal elden från gudarna till människan, Adam och Eva som åt av kunskapens frukt i Edens lustgård eller populära berättelser som Tolkiens Härskarring. Ett återkommande tema är att teknologin och makten som följer korrumperar och att människan straffas för det.
Lösningen på det problemet utifrån synsättet jag utgår från ovan är inte mer teknologi utan en sund balans mellan komplexitet och mening, vilket innebär att vår förmåga att lösa problem och driva den tekniska utvecklingen är grundad i en sund känsla om vem vi är, varför vi gör vad vi gör och för vem vi för det.