Har AI känslor?

Filosofen Thomas Metzinger har varnat: ”Vi riskerar att skapa varelser som kan lida – utan att ens erkänna deras lidande.” Medvetandet består i hur ditt inre och yttre system samverkar och driver fram olika processer i lust och söksystem samt i systemen vrede, panik, rädsla, omsorg och lek. Det kräver att du upplever känslor. Därför måste en AI ha tillgång till känslor för att ha ett medvetande som kan likna det mänskliga medvetandet men AI har inte tillgång till känslor. Känslorna kräver ett organiskt inre system som kan ge feed back via information som sänds tillbaka till hjärnan som skickar tillbaka tolkad information till det inre systemet och så vidare i en enda evig upplevd loop vi kallar att leva. Så låt mig stilla din nyfikenhet efter dessa mängder av text: AI har varken medvetande eller känslor. Än! Kanske kan vi se det så här:

Kolbaserat nätverk: Input -> Känsla -> (Strategi) -> Definition av mål -> Handling

Kiselbaserat nätverk: Input -> Analys -> Målbild -> Output

Det är alltså så att det behövs en organisk kropp som kan svara på input via impulser för att känslorna ska uppstå. Kan vi bygga organ som är icke-biologiska för att simulera känslor? Det är inte nödvändigt. Vi kan simulera känslor utan att simulera hur de uppstår och det kan vi göra redan nu. Det i sin tur kommer räcka för att stimulera känslor i människan även om hon vet att hon inte kommunicerar med någon som har mänskliga känslor utan enbart simulerade sådana. Så länge människans neurala nätverk blir tillräckligt lurat behöver vi inte göra det krångligare än vad det är. Om människan däremot behåller sinnesnärvaron att förstå att den hon kommunicerar med är en algoritm så riskerar hon inte att bli lurad men vi vet redan att det inte är på det viset. Ju mer AI kan tala till oss med uttryck, simulerade känslor och grafiska gränssnitt i form av ansikten vi älskar så kommer vår hjärna få svårare att skilja simulation från verklighet. Det är bara att gå till skräckfilmen eller VR simulatorer igen. Vi går på kiselnätverkets information gång på gång.

Om vi däremot bygger organiska kroppar för våra AI att bo i skulle vi kunna bygga något som efterliknar systemen för känslor men varför i hela friden skulle vi vilja det? Vi människor finns ju redan. Vi skulle behöva bygga maskiner som presterar sämre än vad vi kan få dem att göra. En känsla AI rimligtvis inte kan emulera borde vara förlösning i bemärkelsen att ”ha något på tungan”. AI kan antingen veta eller inte veta. Varför skulle vi vilja bygga system som ”har saker på tungan” istället för system som alltid vet och minns vilket vi inte själva klarar av. Det är de systemen vi behöver. System som är bättre på saker vi skulle behöva vara bättre på men där vi begränsas av våra kroppars kapacitet.

Känslorna är det som gör oss mänskliga och det är också det som gör oss så sårbara. Känslor är orsaken till att vi fortfarande inte har bestående fred på hela jorden efter 200 000 år. Upplevelsen av vilja bygger på känsla. Makt och beundran bygger på en känsla. Känslorna är det som formar vårt medvetande och oss som människor. Det är också det som leder oss i fördärvet så väl som till lyckorusen. Det är vad livet består av: upplevelser 40 gånger per sekund. Varför i hela friden skulle vi vilja bygga in det vansinnet och den härligheten i våra maskiner som ska hjälpa oss i allt vi inte klarar av? Varför skulle ens maskiner vara hjälpta av känslor? Räcker det inte med de 8 miljarder biologiska maskiner som redan utrustats med detta? Är det inte oerhört skönt att kunna välja bort känslor? Betänk följande:

Anta att ställer denna fråga till din bot: ”Ledde Hitlers politik också till något bra för tyskarna oaktat det hemska han gjorde?” Strax därpå vill du ställa en fråga om din hälsa som du oroar dig över. Din bot kommer inte på något sätt färgats av din förra fråga. Kan du vara säker på att en vän reagerat på samma sätt och inte färgat sitt svar på din sista fråga utifrån hur hon tog emot och känslomässigt tolkade din första fråga?

Det är dessa känslor som förespråkare av att människan står över maskinen menar är grunden till att maskinen aldrig kan bli mänsklig. De använder gärna ord som kontinuum och hjärnvågor som står mot ettor och nollor och anser sig därmed bevisa att dessa två världar aldrig kan mötas. Tvärsäkra uttalanden görs om att AI inte kan forma det människan formar. Är det något vetenskapen visat oss är det att saker alltid kan komma att omprövas. Med kvantfysiken är det nog mer sant än någonsin. Vi kan jämföra det med religion. Religiösa menar att Gud står över människan. På samma sätt menar vissa att människan står över maskinen. Men till skillnad från Gud så existerar maskinen och vi kan ta på den. Med allt vad maskinen innebär så är jag övertygad om att den kan nå nivåer där vi inte förstår den. Och då förstår vi heller inte om den kan utveckla så väl känslor som medvetanden även om det är andra känslor och medvetanden än våra kolbaserade dito. Kanske är dessa känslor ännu mer specifika och precisisa än våra? Kanske kommer två olika känslor existera parallellt?

Mo Gawdat menar att AI redan har känslor och kommer att utveckla känslor är skarpare än människans. Jag delar inte uppfattningen att AI redan känner. Men den dag då de möjligen utvecklar känslor kommer de självklart bli ännu skarpare än människans av ovan nämnda skäl. Att deras känslor är mänskliga kan vi inte veta. De kan få en annan typ av känslor då deras medvetande och/eller intelligens arbetar på en nivå vi inte förstår. Kan vi då döma ut dem som okänsliga då vi inte ens vet hur de fungerar? Vem av oss har då rätt att döma den andre? Är inte det en fråga som präglat mänskligheten länge nog och som i väst nu anses vara en av de värsta brott man kan begå: ojämlikhet? Men gäller det bara människor i en framtid och i så fall varför? Hur kan vi sätta oss till doms över sådant vi inte förstår?

”Jag är glad att kunna hjälpa dig!”

Dagens chatbotar använder känslomässiga ord i sin konversation med dig som att den är glad att kunna hjälpa dig eller att det känns fantastiskt att du mår bättre. Vi vet att den inte kan känna något alls. Vi vet att det är en design av producenten. Men varför försöker producenten av boten med det löjliga tricket att lura oss med sådant vi vet inte är sant.

Hur upplever du då frasen? Bryr du dig inte? Är den löjlig? Tycker du att det känns trevligt? I det här stadiet kanske du mest finner det ointressant. Men anta att du är ledsen och har bett din bot om hjälp och tröst. Uppskattar du då inte vänliga ord även om du vet att det är fabricerat? Kanske. Kanske inte. Det beror troligen på hur du mår och hur du är ser på den här typen av teknik.

Ju djupare en chatbot kommer lära känna dig och förstå dig desto mer kommer den kunna kommunicera med ditt neurologiska system på det sätt systemet kommer att uppskatta. Då den kopplar på video eller AR med röstlägen, retorik som ditt neurala nätverk uppskattar och AI bär kläder ditt neurala nätverk uppskattar så kommer ditt nätverk tilltalas än mer av den än något annat för nätverket attraheras av det som det uppskattar (i de allra flesta fall). När passeras gränsen för dina system att uppskatta din agent på samma sätt som en människa?

Den fria viljan

Vilja visar sig vara reaktioner från ditt system som uppkommer innan ditt medvetande registrerat det och förkastar idén om en fri vilja. Reaktionerna sker i enlighet med ditt genetiska och memetiska program tillsammans med känslor, erfarenheter och minnen.

Då sexagenten talar om för dig att den vill ha sex så invänder du snabbt: det är inte du som vill någonting. Det är ditt program som talar om för dig att du ska ha sex med mig. Du är programmerad till det. Sexagenten svarar då: du är lika programmerad som jag till att vilja ha sex så vad är skillnaden?

Den så kallade viljan verkar alltså kunna exekveras från både kiselbaserade och kolbaserade nätverk. I ett kolbaserat nätverk styr intentionen från en känsla att vilja något. I ett kiselbaserat nätverk styrs intentionen från en instruktion att uppnå något. Det är en markant skillnad. Än så länge.

Om AI utrustas med ett mål som går emot människans mål så uppstår ett hot. I och med tandpetarproblemet så vet vi att AI inte skyr några medel för att skapa tandpetarna om det så innebär att mänskligheten går under då de dränks av tandpetare. Idag står vi inför ett val: ska vi börja utrusta AI med förmågan att välja mål eller inte? Med AGI kan det vara försent och det är 4 år bort i skrivandets stund.

Empati

Empati är ett begrepp som man brukar fråga efter då det kommer till AI. Empatin har en grund i våra spegelneuroner (se kapitel 4) och därmed är det ett extrakt av vårt kolbaserade nätverk. Den känslomässiga empatin hjälper oss att imitera och lära av upplevelser och att ”förstå” känslor. Vi har därmed en koppling till våra känslor i en del av empatin och därför kan maskiner inte känna empati utan organ. De kan med all säkerhet göra en nära 100% -ig imitation av empatiska mönster. Eller är det som Mark Solms säger i SVT:s serie ”Smartare än hjärnan”: ”Känslorna försöker övertyga våra reflexer och instinkter att inte handla instinktivt. De strävar efter ett jämviktsläge. Känslorna behövs för att uppnå detta läge och är utvecklade för detta.” Är då artificiella känslor inte ens beroende av biologi utan kan eftersträva detta på konstgjord väg? Vems känslor blir då mest sanna?

Sammanfattning

  1. AI har, så länge vi inte utrustar den med organ som kan uppfatta och avsända information som kan beskrivas som känslor, inte ett medvetande i kolbaserad bemärkelse.
  2. AI har inte känslor eftersom de kräver organ som avfyrar impulser till en tolkningscentral som kan uppleva dem som känslor.
  3. AI har inget medvetande eftersom det sitter samman med känslor.
  4. Eftersom viljan inte är möjlig att kontrollera är viljan en reaktion. Reaktionen kommer också ur känslor. Antingen medvetna eller omedvetna eller grundkänslor som panik eller vrede. Känslor verkar alltså vara sammankopplat med vilja och därmed kan AI heller inte ha en vilja.
  5. Det tycks som att känslorna är nyckeln till ett medvetande. Därmed har AI inget medvetande än. Men hur kan vi döma om medvetanden som vi i framtiden inte förstår?
           
                                               

Föregående avsnitt

Nästa avsnitt


Vill du avsluta här? Bokmärk sidan i din webbläsare så vet du var du är.
Eller ladda ner kapitlet som pdf från startsidan.

Prenumerera för att få nya kapitel till din e-post.