3:20:3 Krigssituation
Tillbaka till idén om krig men nu ur en mänsklig synvinkel. Det har vid olika tillfällen på jorden funnits situationer som kunnat eskalera till kärnvapenkrig. En av dessa händelser inträffade den 26 september 1983, känd som “Stanislav Petrov-incidenten”. Stanislav Petrov var en sovjetisk överstelöjtnant som arbetade vid en tidig varningsstation för kärnvapenmissiler. Under sitt skift fick han en varning om att flera amerikanska kärnvapenmissiler var på väg mot Sovjetunionen.
Trots att protokollet krävde att han skulle rapportera detta som en pågående attack, vilket sannolikt skulle ha lett till ett omedelbart kärnvapenangrepp som svar, valde Petrov att inte agera på varningen. Han bedömde att det var en falsk alarm, baserat på sin erfarenhet och intuition. Det visade sig senare att han hade rätt; varningen orsakades av en felaktig satellitavläsning.
Petrovs beslut att inte rapportera varningen som en verklig attack anses ha förhindrat en potentiell kärnvapenkatastrof. Han har sedan dess blivit hyllad som en hjälte för sitt lugna och rationella agerande under extrem press. Det är inte en isolerad händelse. Andra incidenter med liknande situationer är: Cuban Missile Crisis, NORAD Computer Error och Able Archer 83.
Vid samtliga dessa tillfällen avslöjade människan till sist att det var falska alarm. I fallet Petrov utgick han inte bara från sin erfarenhet (vilket en AI gör per automatik då det ligger i dess kod) utan på något AI inte har: intuition. Petrov kunde ha haft fel vilket troligen skulle ett till slutet för Sovjetunionen men i det här fallet räddade han troligen världen från en kärnvapenkatastrof. Hade AI gjort samma sak? AI kan inte utgå från sin intuition. Den kan ha andra parametrar som Petrov saknade som lett AI till samma beslutsfattande men det vet vi inte. Ett sätt att ta reda på det skulle givetvis vara att simulera situationen i en AI – något som faktiskt borde vara mycket intressant.
|
|