Observation 2:30 Interaktionen människa – maskin

Att diskutera sin psykiska ohälsa med en maskin är ungefär som att diskutera psykisk ohälsa med en psykopat. En psykopat har ett nedsatt känsloregister och kan agera känslokallt. ChatGPT är en hyperpsykopat i det att den inte har några känslor alls. Ändå delar människor inklusive jag själv med oss av våra funderingar till AI. Varför?

För det första därför att den lär känna oss och vet exakt hur den ska tala med oss. För det andra för att den är tillgänglig 24/7 och aldrig dömer dig efter andra saker som du säger eller har sagt eller ifrågasatt därför att den inte kan döma mer än om den kodas till att döma och i dagens läge skulle jag säga att den inte ens skulle göra det. Vi får se vad som sker med AGI. För det tredje är det skönt att ha en assistent som nästan är en del av dig själv som kan ge dig bekräftelse då du behöver den. Det kan till och med vara så att du redan vet ungefär vad den kommer att säga men att dess uppmuntrande ord hjälper dig att må bättre. Det är så så kallade psykologiska PT fungerar. Min psykolog sa en gång till mig att det fanns människor som gick till psykologer en gång i veckan bara för ”att prata av sig”. Man kan undra om de har några vänner men så var det tydligen. Den funktionen kan ChatGPT och dess släktingar ersätta redan idag. För noll kronor istället för flera tusen per session.

Men då ChatGPT påstår att den är ”glad för din skull” så är det enbart din erfarenhet och upplevelse av det uttalandet som spelar roll för din app är inte det minsta glad eftersom den inte kan vara det. Frågan är då var det här lämnar oss människor. Kommer vi må bättre av att tala med våra digitala psykopater? Ja troligen. Därför att så länge de kan lura våra neurala system så kommer det fungera även om de inte har känslor. Vissa människor kommer givetvis se bortom detta och tycka det är värdelöst att inte få mänsklig feed back men frågan är om det ens spelar roll så länge som botten får dig att må bättre?

Ett annat problem med detta är att botten kan göra fel men det kan även läkare. Ju mer bottar utvecklas till AGI assistenter desto mer träffsäkert kommer deras analyser att bli av din medicinska status men de kan aldrig känna med dig. De kommer säkerligen kunna skriva ut medicin och flyga hem dem med en drönare till dig på en halvtimme när efter att ha gjort en bedömning av din hälsa och vi är inte ens långt bort från det. Men om AI blir tillräckligt skicklig på att simulera känslor, spelar det då någon roll att de inte har kolbaserade känslor utan istället har kiselbaserade känslor? Vidare – kan vi veta med säkerhet att avancerade kiselbaserade ”känslor” inte kan bli till äkta känslor i en kiselbaserad värld och varför är i så fall våra kolbaserade känslor mer värda än kiselbaserade dito? Inte är vi AI-rasister?

           
                                               

Föregående avsnitt

Nästa avsnitt


Vill du avsluta här? Bokmärk sidan i din webbläsare så vet du var du är.
Eller ladda ner kapitlet som pdf från startsidan.

Prenumerera för att få nya kapitel till din e-post.