dinsdag 18 december 2012

Oud maar nog niet vervangen

Het lijkt wel of we steeds proberen uit de lengte te halen wat er in de breedte gewoon niet altijd in zit. Zo proberen we applicaties die nimmer ontworpen waren voor virtualisatie en gedeeld resource gebruik toch in het keurslijf van standaardisatie te drukken met bijvoorbeeld Remote Desktop Services. 

En hiermee maken we eerdere correctieve ‘ctrl-alt-del’ gewoonte een preventieve door elke nacht servers te herstarten. Nu is regelmatig herstarten van een server natuurlijk niet slecht, 20 jaar geleden moest ik dit ook al wekelijks doen voor de mainframe om zodoende de aangebrachte wijzigingen actief te maken. En nu veranderen dingen natuurlijk sneller dan ze vastgelegd worden maar mijn tablet herstart ik desondanks met een veel lagere frequentie, meestal als ik vergeten ben deze op te laden. Het is dus best een rare ‘Best Practice’ om servers te herstarten omdat er onopgeloste problemen met applicaties zijn.

vrijdag 23 november 2012

De duivel zit in de details



Het is de spreekwoordelijke open deur intrappen door te stellen dat huidige IT architecturen steeds  complexer worden. Door organische groei, waarbij oplossingen gestapeld worden is het moeilijker om inzicht te verkrijgen, de werking transparant te maken. En die tekortkoming zorgt er steeds vaker voor dat er foute beslissingen worden genomen waardoor er verstoringen optreden.




Binnen beheer wordt dat de menselijke fout (layer 8 error) genoemd, in ontwikkeling een bug en in de business gewoon voortschrijdend inzicht. Maar welke naam je er ook aan geeft is niet belangrijk, wel dat ze opmerkelijk vaak terug te leiden zijn op:

  1. Kennis gebrek; (deel)oplossingen richten zich op specifiek probleem en negeren relaties.
  2. Kennis ontoegankelijk; informatie ligt besloten in systemen en wordt niet gedeeld.
  3. Kennis wordt genegeerd; door overvloed zien we door bomen het bos niet meer.
  4. Kennis is geblokkeerd; met de scheiding van functies zijn er ‘koninkrijkjes’ onstaan.

De stelling: ‘ICT: a decade of growth, still the same challenges remains’ krijgt dus een andere betekenis als we kijken naar de menselijke factor. Want ondanks alle veranderingen in techniek en de verdere digitalisering heeft de mens namelijk nog steeds geen upgrade gehad.

woensdag 14 november 2012

Zorgpremie stelsel van de ICT

Recent had ik een ontbijtsessie over Cloud Lifecycle Management waarbij één onderwerp me over de streep trok om vroeg op te staan, namelijk chargeback. Het terugvorderen van  investeringen via gemeten verbruik en niet zoals gebruikelijk met een doorbelasting van de kosten op basis van het bezit.  ‘Going Dutch’ - waarbij iedereen betaalt voor z'n feestje in de Cloud voorkomt een heleboel verrassingen achteraf.

Nu is het doorbelasten van de kosten niet nieuw maar het wordt vaak als ‘funny money’ gezien, een vestzak-broekzak boekhouding die niet erg serieus genomen wordt. Er is dan ook geen prioriteit om de kosten transparant(er) te maken omdat verliezen toch wel genivelleerd worden. Iets dat nu als een boemerang terugkomt omdat de budgetten onder druk staan. En virtualisatie, waarbij servers niet alleen snel offline en online gaan maar ook van configuratie of plaats veranderen zorgt voor een uitdaging in de boekhouding. Want het wordt steeds vaker als oneerlijk ervaren om een vast bedrag in rekening te brengen voor virtuele servers. Daarom lokken mogelijkheden van Cloud Computing met haar ‘pay per use’ modellen.

zaterdag 20 oktober 2012

Expertpanel: Cloudbeheer in het datacenter



Als expert voor Computable ben ik gevraagd om donderdag 1 november mee te doen aan het expertpanel Cloudbeheer in het datacenter tijdens de Infosecurity in de jaarbeurs te Utrecht. Als regelmatige blogger over dit onderwerp doe ik daar graag aan mee en heb zoals gevraagd een 3-tal stellingen gegeven die ik uit eerdere artikelen gedistilleerd heb:





1. Functionaliteit kan beter naar de Cloud gebracht worden dan de systemen
Oftewel om maximaal te kunnen profiteren van de voordelen van Cloud Computing zoals: flexibiliteit, lagere kosten en snelheid zullen er zo min mogelijk technische afhankelijkheden met onderliggende platformen moeten zijn zoals Ramnath K. Chellappa dit nieuwe computer paradigma 15 jaar geleden dan ook al definieerde.  

2. Cloud Computing verbetert niet de continuïteit van het bedrijfsproces.
De kwaliteit van de IT dienstverlening wordt in grotere mate bepaald door beheer(processen) dan de techniek welk trouwens ook sneller wijzigt.  Juist met het op afstand zetten van gebruikers, techniek en beheer zonder aanpassingen van beheerprocessen neemt de complexiteit en daarmee kans op verstoringen dan ook eerder toe dan af.

3. Winst van Cloud Computing is kleiner dan leveranciers ons willen doenlaten geloven.
Om te kunnen beoordelen of Cloud Computing goedkoper is zullen niet alleen CapEx en OpEx van bestaande en nieuwe omgeving bekend moeten zijn maar ook de migratie kosten. Hierbij zullen ook de kosten van uitbreiding, vervanging en groei meegenomen moeten worden over de termijnen. Cloud Computing is namelijk geen boekhoudkundige truc maar een architectuur wijziging. 

Omdat Computable in samenwerking met de gespreksleider, voor deze sessie Peter van Eijk de definitieve stellingen nog moet 'boetseren' vanuit de inbreng van alle deelnemende experts weet ik niet of en in hoeverre bovengenoemde stellingen aan bod zullen komen.

Heb je echter aanvullingen, tegenwerpingen of een andere opmerkingen laat dan een reactie achter of neem contact met me op.

zondag 14 oktober 2012

Loopt EA straks op de rotsen?

De regie over ICT begint steeds meer op schaken te lijken waar kritische bedrijfsapplicaties en data als koning en koningin gezien kunnen worden en de ondersteunende services vaak als pionnen. Een speelbord waar de verschillende stukken elk hun eigen zetten doen en er verschillende oplossingsrichtingen zijn. Richtingen die door toegenomen mobiliteit van zowel de gebruikers, data en systemen ook nog eens alle kanten uit gaat.

Zo willen gebruikers niet meer gebonden zijn aan kantoor en onder de noemer van ‘het nieuwe werken’ mobiel zijn. En  introductie van steeds weer nieuwe services zoals sociale media brengt andere stukken op het bord waardoor focus verlegd wordt. Maar ook de stukken die door bijvoorbeeld Cloud Computing van het bord genomen worden blijven uiteindelijk toch een rol spelen in de dienstverlening. Complexiteit en afhankelijkheden in infrastructuren nemen hierdoor veel sneller toe waardoor deze steeds meer op de legende gaat lijken waarin uitvinder van het schaakspel als beloning een rijstkorrel op het eerste veld en een verdubbeling op elk volgende vraagt.

Maar ook de velden zelf worden uitgebreid en nieuwe loot aan de IT boom is de discipline Enterprise Architectuur die tot doel heeft om efficientie op alle lagen van de organisatie te bewerkstelligen. Beoogde meerwaarde hiervan is het samenbrengen van alle veranderingen, welke niet alleen intern maar ook extern plaats vinden, in een eenduidige richting. Daarvoor worden de gezichtpunten vanuit de bedrijfsdoelstellingen en de informatietechnologie samen gebracht in modellen en architectuur principes. Helaas ziet Enterprise Architectuur de infrastructuur en service nog teveel als zorg voor het implementatie niveau en laat het in haar modellen vaak buiten beschouwing. Enterprise Architecten die zich achter hun deuren verschansen, praten over artifacten en enkel met versimpelde modellen komen zijn artiesten die me vermaken met mooie tekeningen maar weinig waarde hebben in de aansturing van de ICT.

Daarom is de artistieke ‘mindmap’ van ZapThink welke op een ludieke manier de toekomstige knelpunten met architectuur principes plot zo interessant. Want hoeveel plaatjes hebben we nog nodig om te begrijpen dat een model uiteindelijk een versimpeling van de werkelijkheid is?



vrijdag 5 oktober 2012

De winst van Cloud Computing

Cloud computing biedt in theorie onbegrensde groeimogelijkheden maar wordt tot op heden vooral beperkt door bandbreedte. De kosten en beperkingen van het netwerk worden vaak onderschat of simpelweg vergeten. En dit geldt niet alleen voor de bovenkant, de toegang van cliënt naar de cloud applicaties, maar ook naar de achterliggende opslag.


Iets om bijvoorbeeld rekening mee te houden is dat veel aanbieders van cloud computing wel aantallen gigabytes bieden maar geen garanties in IOPS, het aantal lees- en schrijfacties naar de opslag. En dat kan, zeker als opslag gedeeld wordt uiteindelijk voor vervelende verrassingen in de prestatie van applicaties zorgen. En de schaalbaarheid proberen te vergroten door de werklast te verdelen over verschillende computers verschuift probleem alleen maar naar de onderkant, vaak de database die de bron van informatie is voor vele processen en services.

vrijdag 3 augustus 2012

Cloud beheersbaar, maar niet beheerbaar

Eén letter meer of minder kan een heel verschil maken en daarmee een compleet andere betekenis geven aan een begrip. Zo betekent beheerbaarheid volgens het computerwoordenboek de mate van een systeem om deze in operationele staat te brengen en te houden. Beheersbaarheid betekent daarentegen het in toom houden van een systeem, de mogelijkheid om het geheel te kunnen overzien.

Deze vraag is geen taalpurisme maar lijkt me gerechtvaardigd omdat onder het mom van: ‘Liberté, égalité, fraternité er namelijk een revolutie heeft plaats gevonden, een omwenteling in zowel het aanzien als het gebruik en beheer van de ict die impact heeft op de beheerbaarheid. Zo heeft de hype van ‘Consumerization of IT’ die nu bekendheid krijgt eigenlijk al eerder plaats gevonden toen we de personal computer kregen. Vanaf dat moment zijn we gebruikers in de it ook opeens afnemers gaan noemen en is verandering nog de enige constante in de ict.

De gebruikers leerden toen niet alleen de it-middelen naar eigen inzicht te gebruiken maar konden ook zelf applicaties kiezen en maken. Kleurrijk en gebruiksvriendelijk werd hierbij toen ook al belangrijker geacht dan kwaliteitsattributen als betrouwbaarheid en onderhoudbaarheid. Twee attributen die in belangrijke mate de beheerbaarheid van een systeem bepalen. En dus proberen we al sinds de introductie van het client-server model met technische maatregelen zoals verdubbelen, uitschalen en isoleren van servers dit hiaat op te lossen.

dinsdag 10 juli 2012

Dozenschuivers zijn probleemstapelaars

De term dozenschuiver is bepaald geen geuzennaam en wordt gebruikt voor bedrijven die vooral techniek leveren. Ze kunnen heel goed concurreren op prijs omdat het personeel vaak ongekwalificeerd, tijdelijk en dus goedkoop is. Maar niet zelden is goedkoop uiteindelijk duurkoop, hetgeen meestal aan het licht komt als bij problemen blijkt dat er enkel service tot aan de voordeur gegeven wordt.



Wie met een dozenschuiver in zee gaat moet dan ook niet verrast zijn dat deze zijn logistiek van stukgoed voort blijft zetten na het winnen van de opdracht. ‘Easy money’ noemen deze bedrijven dat omdat er door contracten niet ten halve gekeerd kan worden en dus, ondanks alle frustratie, doorgegaan wordt op de ingeslagen koers. Maar toch vraag ik me af wie nu wie voor de gek houdt want vaak wordt, ondanks dat er gezegd wordt dat kwaliteit en service belangrijk zijn, toch vooral gekozen op prijs. Afdeling inkoop moet dan ook hele sterke argumenten hebben om te kiezen voor de duurdere of duurste oplossing, het maatwerk dat rekening houdt met de toekomst en dus meer aanbiedt dan er gevraagd wordt.

woensdag 13 juni 2012

Cloud Computing op maat gemaakt

Op mijn eerdere blog ‘De valkuilen in Cloud Computing’ kwamen nogal wat reacties over de verbinding, de weg er naar toe. Hierbij werd terecht opgemerkt dat dit niet een specifiek probleem is voor Cloud Computing, het kan zoals opgemerkt, ook spelen tussen remote locaties. Het netwerk, en dan met name de bandbreedte, latency en stabiliteit, is dus belangrijk maar wordt ook steeds vaker als een gegeven gezien. Het is er of het is er niet.




En als het netwerk er toch al ligt dan wordt de weg naar de cloud een stuk eenvoudiger en goedkoper. Steeds meer netwerk providers breiden daarom hun diensten uit door cloud computing als leveringsmodel te adopteren. Hoewel het misschien eerlijker is om hier te spreken over hosting 2.0 omdat deze aanbiedingen (nog) niet te vergelijken zijn met de tier-1 aanbieders als Google, Amazon en Microsoft. Maar in hun concurrentie hebben ze door hun stabiele netwerken met lage latency wel een unieke positie. Zo hoeft er bijvoorbeeld geen gebruik gemaakt te worden van publieke netwerken hetgeen de betrouwbaarheid ten goede komt. Sommige aanbieders brengen hun klanten hiervoor zelfs geen kosten in rekening en hanteren een 'fair use'-policy waardoor bij afname van cloud computing gevraagd kan worden: Netwerk bij, meneer?

woensdag 16 mei 2012

Big data, bestaat het wel?

In de definitie van big data worden termen als volume, ongestructureerdheid, snelheid en variatie gebruikt. Dat maakt het een behoorlijke vage en allesomvattend term, maar definities zijn net als orde en netheid voor de dommen, want alleen het genie beheerst de chaos. Als je op zoek bent naar het gouden businessidee verwacht je niet dat deze op een presteerblaadje wordt aangeboden. Dat zijn namelijk opinies, gedachten van een ander.



De big data binnen sociale media zijn ook de gedachten van een ander. In onze ijver om alles te digitaliseren staan met sociale onze gedachten sneller op internet dan op papier, wat natuurlijk een goudmijn is voor sociologen, politicologen, psychologen en ieder die zich wetenschappelijk bezig houdt met de samenleving, menselijke geest en bijkomend gedrag. Data mining in de cloud geeft dan soms inderdaad inzicht in relaties die anders verborgen blijven doordat sociale netwerken een soort ‘relationele’ databases zijn. En dus terwijl iedereen bezig is met Wordfeud, het ouderwetse Scrabble op iternet, zitten anderen dus gewoon Cluedo te spelen.

maandag 16 april 2012

Ketenproblematiek en communicerende vaten

Eerder schreef ik over opslag, waarbij keus en inrichting vaak (mede) bepalend zijn voor de prestaties in de keten. Een keus die ook vaak verstrekkende gevolgen heeft omdat het hier meestal om grote investeringen gaat en migreren van de ene oplossing naar de andere veel tijd en geld kost. Een storage architect kan helpen bij het maken van de juiste keus maar deze blijft uiteindelijk afhankelijk van de input die door organisatie gegeven wordt.


En juist daar lijkt het steeds mis te gaan want met confectie in de vorm van virtualisatie denken we wonderen te kunnen leveren maar blijken de onmogelijkheden, in de vorm van capaciteitsmanagement, meer tijd te kosten. Het is dus niet zo zeer de architect die het verschil maakt want het zijn uiteindelijk de processen die de informatie moeten aanleveren. Regeren is nu eenmaal vooruit kijken maar performance testen staan helaas als laatste op de planning, als er überhaupt al aan wordt gedacht.

donderdag 15 maart 2012

De valkuilen in Cloud Computing

Cloud computing is een onomkeerbaar proces, een logisch gevolg van de ontwikkelingen in techniek waardoor we steeds meer (keuze)vrijheid krijgen. Maar het is vooral nog een valkuil waarbij de weg terug vaak afgesloten wordt door het gebrek aan standaardisatie. Want ook al zijn de bouwstenen van cloud computing, zoals virtualisatie en Internet, generiek, dat geldt (nog) niet voor de totaaloplossing.


Ramnath K. Chellappa, professor op het gebied van informatiesystemen, definieert cloud computing als volgt: 'Een computerparadigma waarbij de grenzen van de computer worden vastgesteld door het economische aspect, eerder dan de technische limieten.' Indien we deze definitie aanhouden, zijn huidige oplossingen helaas een vendor lock. Want een complete oplossing bestaat namelijk uit meer dan techniek omdat organisaties vaak getrouwd zijn met hun applicaties, processen en informatie die helemaal niet zo standaard zijn. Zo kost migreren van de ene database naar de andere of converteren van documenten bij wisselen van applicaties, platform of leverancier dan ook meer tijd en geld dan alleen wat techniek verplaatsen.

donderdag 23 februari 2012

Manier van opslag bepaalt het systeemprestatieniveau

Het is een dooddoener maar de zwakste schakel bepaalt altijd de prestatie en bevindt deze zich steeds vaker onderin de architectuur, daar waar alles opgeslagen wordt. Aandacht is er wel voor de functionele aspecten maar er wordt vergeten dat meten weten is en gissen niet zelden missen. Juiste keus wordt niet alleen bepaalt door de capaciteit in terabytes maar vooral door het aantal lees- en schrijf bewerkingen per seconde (IOPS).

Prestatie van één disk wordt vaak weergegeven in de uitkomst van een berekening tussen toeren, gemiddelde latency en zoektijd. Wanneer individuele disken samengevoegd worden in een logisch volume dan kunnen deze IOPS bij elkaar opgeteld worden. Dus hoe meer disken in een array hoe beter de prestatie, waarbij er afhankelijk van raid-level wel correcties gemaakt moeten worden. Prestatie van het ijzer, de backend, is dus vooral een rekensom die meestal nog wel gemaakt wordt door de leverancier. We kunnen dus met formules in Excel de prestaties aan de onderkant oftewel de backend IOPS vergelijken.

vrijdag 27 januari 2012

Mobiliteit wordt pas succes met een gerichte aanpak

Consumerization of IT (CoIT) in combinatie met verdergaande mobiliteit zorgt voor populariteit van mobiele apparaten, die tegenwoordig steeds vaker worden meegenomen naar het werk. Dat concept komt me trouwens bekend voor omdat we eerder al de eigen pc mee namen naar een lan-party. En als ik er goed over nadenk is het succes van Microsoft grotendeels gebaseerd op gebruik in de thuismarkt.




Revolutionair van deze mobiele apparaten is dat de gebruikelijke wijze van informatie invoeren wijzigt en ons los maakt van het toetsenbord en de muis op kantoor en thuis. Toegevoegde waarde zit dan ook niet zo zeer in het apparaat zelf maar vooral in de applicaties die gebruikt worden. Dubbel intypen van informatie in velden is niet efficiënt, wel het gebruik van nieuwe mogelijkheden als spraak, camera en beweging. Oplossingen als Google Goggles, Microsoft Kinect Motion en nog vele andere voorbeelden zijn innovatief maar als ze niet aansluiten op de bedrijfsprocessen blijven het speeltjes. Om spiegeltjes en kraaltjes aan de gebruikerskant productief te maken zullen ze dus wel aan moeten sluiten op de architectuur aan de achterkant. Want zonder inpassing hiervan binnen de bedrijfsprocessen zal de productiviteit amper toenemen. Zo gaf Windows met een grafische schil dan wel kleur aan onze werkzaamheden maar uiteindelijk bleven we data nog steeds intypen.

dinsdag 10 januari 2012

Resocialisatie van sociale media

Gezien de ‘ophef’ over een practical joke met een nagemaakte website en acties om sommige satirische tweets te stoppen is het misschien tijd voor een beschouwing van een modern fenomeen. Eerder heb ik hier al eens over geschreven in ‘Business intelligence in de cloud’, waarbij ik sceptisch was over het gebruik en de populariteit van social media. Dat werd vooral ingegeven door het ontbreken van een aantal zaken, waardoor misbruik op de loer ligt.


Zo laten velen na om de authenticiteit van de zender te bepalen, is de attentiewaarde vaak niet meer dan een ‘selffulfilling prophecy' en heerst er een zekere wetteloosheid. De practical joke die een hoge attentiewaarde kreeg, was een bericht over Van Bemmel dat voor een oplettende lezer duidelijk vals was. Tenminste, als er naar de url gekeken werd, die overduidelijk niet van de Telegraaf was. Een paar dagen eerder publiceerde deze grappenmaker trouwens op dezelfde manier een bericht over Mart Smeets, dat echter niet zoveel aandacht kreeg. Blijkbaar werkt de techniek van framing het best bij politieke figuren, of niemand neemt het Privé-katern van de Telegraaf serieus. Een plaatje zegt nu eenmaal meer dan duizend woorden, dus de kunst van framing is om een beeld te scheppen dat grotendeels ingevuld wordt vanuit het denkraam van de ontvanger. Het is een overtuigingstechniek die niet alleen veel in de politiek gebruikt wordt, maar ook in de reclame. Met de beperking van 140 karakters is Twitter dus een fantastisch middel voor het kaderen van gedachten in één pakkende oneliner. Vroeger, toen we nog geen social media hadden, noemden we dat trouwens soundbites, maar tegenwoordig een tweet.