3:16:1 Känslomodeller
Jag tror vi kan knyta djupt an till en avatar. Det sker som sagt redan idag. Men då avatarer får utseenden som människor, spelas upp på AR glasögon eller till och med tar steget ut i det fysiska rummet som mänskliga robotar – är det då så säkert att vi inte kommer älska dem? Varför skulle inte hjärnan kunna göra det då allt den ser är mänsklighet, skönhet, känslor (om än simulerade) och kärlek (om än simulerad)? Vad är det den skulle ha emot det? Nej jag har egentligen bara två tvivel:
- Kan vi verkligen uppskatta en artificiell kärlek då vi vet att den inte känner på riktigt? Hur upplever du idag ChatGPT:s sätt att kommunicera med dig då den säger att den är ”glad för din skull” eller tycker något är ”underbart”? Känns det äkta eller känns det som en lögn som får dig att tappa eventuella känslor för den? En riktig avatar eller mänsklig robot skulle ha många andra attribut som skulle lura vår hjärna att känna för den mer än vad vi gör för en textbot men räcker det om vi vet att den inte känner?
- Då en människa hela tiden får vad den vill ha finns ingenting att ha respekt för. Människan är programmerad till anpassning efter ständigt skiftade miljöer. Vad händer om det inte längre behövs? Kommer vi tröttna på kärleken precis som fruar tröttnar på sina toffelmän då vår kärleksavatar alltid beter sig tillgivet och tillmötesgående? Att ständigt kontrollera den man älskar är något av ett jämviktsproblem där jämvikten infinner sig utan att rubbas och då överlever inte organismen – i det här fallet kärleken. Det blir något annat: ett kontrollerande förhållande. Vi behöver det okontrollerade för att evolovera – det är så vi alltid har utvecklats. Om allt vore statiskt stod allt stil – så även känslorna.
Men finns det en lösning ? Ja. Problem 2 kan troligen lösa problem 1. Säg att vi skulle kunna låta den artificiella kärleken spinna en väv av potentiella känsloyttringar genom att förutsäga meningar som anspelar på träningsdata på mänskligt beteende. Insamlandet av datan jobbar precis som i språkmodellerna vilket vi tog upp i Observation 2:34. Med sannolikheter förutsätter din AI känsloyttringar i ord som bör anspela på det du just matat den med. Beroende på hur AI är kodad att ”bete” sig det vill säga välja bland sannolikheter beroende på vad du sagt ger den olika outputs.
Till exempel: Du skriver ”Jag är förbannad på dig för du inte sa God Morgon”. Din ChatGPT skulle idag säkerligen be om ursäkt på något sätt eller säga att den inte kan säga God morgon om du inte talar till den och sen fråga om den ska önska dig God morgon på morgonen. Men om vi har en AI som du valt att koda som ”lynnig” så kanske den hittar data där den selekterar ett ”lynnigt” sätt att besvara dig: ”Du sa fan inte heller god morgon” och så är bråket igång. Precis som mellan dig och din partner häromsistens.
Nu har vi plötsligt en AI som kan simulera känslor och det kan faktiskt lösa problem 1 för hur vet vi att vår AI:s algoritmer nu inte faktiskt känner på riktigt men i ett kiselbaserat artificiellt nätverk? Då AI:s skapare idag inte längre kan förutsäga eller förstå vad som ska ske här näst och inte ens gjorde det med Drag 37 – hur ska du veta att din AI nu inte känner på riktigt även om hennes ”riktigt” skiljer sig från ditt ”riktigt”? Kan artificiella känslor utvecklas genom inlärning av din AI och vad skiljer det då från dina egna reaktioner som i sin tur följer mönster i din hjärna men som tar sig uttryck i biologiska yttringar via dina inre organ? Din AI hoppar över det och har istället lärt sig via andra inlärningsmodeller som exkluderar biologi men fortfarande har ett ”inbränt” mönster för reaktion i sin neurologiska bana.
Nu har vi alltså en AI som du måste respektera för att den inte ska reagera och i värsta fall lämna dig och du har också en AI som kan eller inte kan ha kiselbaserade känslor för dig. Så länge du är okej med att något annat än kol skapar vad du upplever som känslor så har du en avatar som älskar tillräckligt riktigt för att det ska upplevas riktigt. Behöver vi nu människan?
Eller innebär den förvirringen över om AI känner för oss eller inte ytterligare ett problem för vårt förhållande till AI och vår egen psykiska hälsa?
Kontentan är att kärleken inte fungera då vi helt kontrollerar vår partner – det är inte kärlek. Men vi kan bygga oss ur problemet genom att använda språkmodellerna som bas för att bygga känslomodeller. Då vi väl har dem på plats kan man skruva dem åt olika håll om man vill ha någon mer tillgiven, rastlös, aggressiv, kontrollerande, undergiven med mera. Men man kan också stänga av möjligheten att kontrollera och låta avataren utvecklas själv enligt känslomodellerna. Då får man plötsligt något som kan vara en avatar att förälska sig i på riktigt då vi inte kan kontrollera henne – precis som i riktiga livet – och vi inte vet om hennes känslor är äkta för henne. Eller som sagt: gör det oss ännu mer förvirrade. Kärleken är svår oavsett livsform. Om du är intresserad har jag dragit exemplet ännu längre i tre blogginlägg varav du hittar det första här.
|
|