Fallande huspriser var så osannolikt för Standard & Poor att de inte hade programmerat in möjligheten för det i sina datorsystem. Läs mer om sambandet mellan datamodeller och finanskris hos Jonas Söderström på Blind Höna.
Jag vet inte hur man ska komma åt dessa datamodeller i praktiken -- det känns som om varje system bär på sin egen "millennie-bugg", områden där matchningen mellan modellen och världen är för dålig.
Man skulle ha en tjänst som var en "reality check" som man körde sina datorprogram genom. Tjänsten skulle analysera programmet med avseende på vilka antaganden som gjordes om verkligheten och avgöra hur sannolikt det var att dessa antaganden skulle bli fel...
Ja, det är svårt att skriva ett sånt program, och samtidigt kommer något liknande nog snart att behövas när man märker att datorprogrammen sätter ner samhällets utvecklingstakt eftersom de är så svåra att anpassa till ändrade förhållanden i omvärlden...
Man tänker ju osökt på klimatsimuleringarna som ska försöka beskriva ett ännu mer komplext system ännu längre in i framtiden.
Posted by: Erik Starck | 02 december 2008 at 20:21
För att validera modeller krävs data. Fallande huspriser finns väl inte i definitionsmängden, modellerna är baserade, eller i alla fall hårt viktade, mot de senaste ... 10 årens data. Antar jag. Av vilja eller dumhet, kanske.
Posted by: thebe | 03 december 2008 at 07:33
Erik -- du menar att svårigheten är stor att med nuvarande komplexitet *i världen* göra en modell för att beskriva ett framtida läge med högre komplexitet i själva systemet? Ja, ser man det så får man ju nästan svindel...
Thebe -- men förhoppningsvis analyserar man fram "mekanismen" i det man ska modellera, och inte bara tittar på "output"! Men det är kanske det som är den stora tröskeln. Intressant.
Posted by: Infontology | 03 december 2008 at 09:25