In deze blog wil ik ingaan op het duivelse dilemma dat
we kennen in de ICT, namelijk de uitdagingen in capaciteitsmanagement. Want er is misschien een integrale
ketenvisie over hoe informatie stroomt maar de trechter zelf is vaak niet
transparant. En dus worden we nog steeds verrast met problematiek van de
flessenhals waar een kleine verandering er al voor kan zorgen dat de service
als dikke stront door een dunne trechter gaat. Dit omdat de logische waarheid
in de architectuur modellen nog weleens af wijkt van de fysieke realiteit.
In de praktijk kom ik dan ook vele voorbeelden tegen waar
tegen beter weten in geprobeerd wordt om uit de breedte te halen wat er in de
lengte van dagen niet in zit. Zoals een prachtige webfarm waar alle servers
afhankelijk zijn van één database. En deze database hangt dan aan de opslag met
een ‘rietje’ met een verkeerd storage protocol gekozen is of omdat er vooraf
niet gekeken is wat er precies nodig is aan prestatie, de snelheid van het
lezen en schrijven. Opslagcapaciteit in gigabytes kost namelijk niks maar de
prestatie ervan blijft nog steeds duur.