Jag tror att väldigt mycket av internettrafiken bara är till för att kontrollera att alla sidor, appar och tjänster funkar som de ska.
Nyligen satte jag upp en experimentell hemsida som bland annat anropade busstider på Trafiklabs server. Efter ganska kort tid slutade sidan att fungera. Orsaken var att Elastic beanstalk (!) som är serverinfrastrukturen jag använde till sidan skickar 8 förfrågningar i minuten till sidan för att se om den laddas korrekt. Så det tog inte lång tid förrän jag hade använt upp mina tilldelade anrop till busstidtabellerna, utan att ha besökt sidan mer än kanske tio gånger själv.
Jag trodde att jag laddade upp en sida som liksom bara skapades när någon besökare kom och faktiskt ville ha information, men de drygt 11 000 anropen per dygn som gjordes automatiskt svarade mot den trafik jag väntade mig under de närmaste femton åren...
Det skulle kunna finnas en massa sätt att testa att sidan fungerar, men det enklaste är det som användes här: ladda om sidan och se att det går bra. Ska man inte göra så måste man bygga någon sorts annan monitor-funktion, som kanske måste bli lika komplex som att ladda sidan...
Och sen är ju frågan hur ofta det ska göras. Jag tror kanske att tålamodet med tjänster som inte fungerar är ungefär så långt som i mitt exempelt: ett par sekunder efter att sidan har slutat fungera måste det gå ett larm, eller en automatisk procedur måste sättas igång för att den ska lagas.
För min sida blev det absurt, förstås, men det kan inte den elastiska bönstjälken känna till.
/Simon
Tror detta säger ganska mycket om balansen mellan vad som behöver hända inom ett ekosystem av delar om det skall kunna verka som ETT adaptivt system. Problemet när vi designat är att vi människor har en alltför mekanistisk och förenklad bild av hur vi tror en sådan process fungerar.
Posted by: Martin Börjesson | 16 december 2019 at 10:06