Observation 3:11 AI-industrin och moralen

Amy Webb är en amerikansk futurist, författare och grundare av Webbmedia Group, ett konsultföretag som fokuserar på digital innovation och strategi. Hon är känd för sina insikter inom teknologi, framtidsspaning och hur digitala trender påverkar olika branscher. Webb har också skrivit böcker, inklusive ”The Signals Are Talking”, där hon utforskar hur man kan identifiera framtida trender genom att analysera nuvarande signaler. Hon är också en populär talare och har hållit föreläsningar vid olika konferenser och institutioner. Hon menar i sina tal att AI-industrin har lovat en ansvarsfull utveckling som inte infriats. Som exempel nämner hon en bildbeställning på vikingar och på påven via Google Gemini. Denne renderade då bilder av dessa med svarta individer. Också USA:s grundlagsstiftare blev till svarta män och kvinnor. Det stämmer inte heller. Varken kvinnor eller svarta deltog i stiftandet av USA:s grundlag. Då jag skriver in dessa frågor idag i ChatGPT 4 svarar den med att jag dels kan bryta mot användarpolicy genom att använda ordet svarta människor (det är mitt eget antagande för prompten innehöll enbart frågan om svarta människor deltog vi grundlagsförfattandet). Vidare vill den påpeka att både kvinnor svarta indirekt kan ha haft en viss minimal om ens någon inverkan på grundlagen.

Det är tydligt att boten vill verka mot segregering och rasism vilket får ovanstående berättelse från Amy Webb att verka trolig. Just nu bygger vi in moralen i våra botar. Det är ett vansinne därför att det kommer kantra deras svar på våra frågor till makthavarnas idéer. På sikt kan de skriva om historien om vi allt mer börjar lita på våra agenter istället för på böcker och forskning på internet.

Problemet, menar Amy, är att det inte går att rulla tillbaka den här utvecklingen. Språkmodellerna har redan börjat anpassa sig till dessa felaktigheter och det skapar svallvågseffekter. Det politiskt korrekta som byggts in i modellerna ger oss helt enkelt falska uppgifter som riskerar att göras till sanna då människan lyder under minsta motståndets lag istället för att kontrollera fakta.

Webb menar också att open source modeller skapar problem. Då Meta släppte sin open source modell Llama 2 (Llama 2 är en familj av transformatorbaserade autoregressiva kausala språkmodeller. Autoregressiva språkmodeller tar en sekvens av ord som inmatning och förutsäger rekursivt – utdata – nästa ord= så dröjde det inte länge innan några kreativa utvecklare utvecklade vidare till att kunna generera deep fake porr. Men den nya modellen kan också användas till att i detalj få reda på hur man begår en statskupp eller tar fram biologiska vapen.

Källa Svenska Dagbladet, 23 mars 2024.

           
                                               

Föregående avsnitt

Nästa avsnitt


Vill du avsluta här? Bokmärk sidan i din webbläsare så vet du var du är.
Eller ladda ner kapitlet som pdf från startsidan.

Prenumerera för att få nya kapitel till din e-post.