Een landschap vol nullen en enen

  30 augustus 2017  |    Interview

Een gesprek over digitalisering met Anwar Osseyran, Lid van het SURF bestuur, Directeur SURFsara BV en voorzitter van Consortium Green-IT Amsterdam

Datacenters zijn booming business. En toch, alleen een getraind oog herkent de anonieme, vaak gezichtloze bedrijfsgebouwen die verrijzen op strategische plekken in het landschap. En het einde van groei van die markt is nog altijd niet in zicht. Sterker nog, het vermoeden bestaat dat het gebruik aan data en daarmee de behoefte aan dit soort centra zelfs nog exponentieel blijft toenemen, zo leert een gesprek over de historie met digitaliseringskenner van het eerste uur:  Anwar Osseyran.

Mainframes

“Ik liep eind jaren zeventig stage bij een groot technologisch bedrijf Sulzer in Parijs. Daar was mij gevraagd om optimalisaties door te rekenen die gedaan konden worden aan zweeftreinen. Uiteraard hadden zij een eigen IT-afdeling. Daar stond een grote computer met veel rekenkracht, maar die mocht ik niet gebruiken. Dat was te duur en de computer was voornamelijk voor de business administratie bedoeld. Je kunt het je nu niet meer voorstellen maar het gebruik en de optimalisatie van de reken- en opslagcapaciteit, runtime, energieverbruik en het uitbreiden van functies was centraal belegd bij de kleine IT-afdeling. Dat systeem was topdown en had maar 1 smaak. Je had in die tijd alleen een paar grote spelers die de markt domineerden, zoals IBM en Digital.”

Eerste stap naar decentralisatie

Osseyran gaat verder. “Medio jaren ‘80 werd de personal computers massaal omarmd door onvrede over deze topdown organisatie van die providers.. Wat dat zo anders  maakte? Je had niet alleen zeggenschap over je eigen hardware, maar je kreeg ook software waarmee je jouw eigen werkomgeving zelf kon samenstellen: client side zoals dat in jargon heet. Het zakelijke gebruik nam een enorme vlucht toen ook de eerste servers hun intrede deden. Zo konden applicaties gebruikt worden die op de server stonden bij de IT-afdeling, terwijl de gebruikersinterface op de losse pc’s stond. Ik weet nog goed dat ik bij Digital werkte en een eerste animatie op mijn DEC Workstation  zag van CERN (1992). Deze draaide niet op mijn workstation, maar op een server in Genève waar mijn pc mee verbonden was. Magisch. Dat betekende ook dat IT-afdelingen hun rol anders zouden moeten gaan invullen.”

Ontstaan van internet

“In de beginjaren ‘90 waren op bedrijfsniveau de pc’s inmiddels wel met elkaar verbonden, via een bedrijfsnetwerk maar de grote stap voorwaarts moest nog komen. Er werd druk gesleuteld aan het aan elkaar knopen en met elkaar laten praten van servers van die verschillende netwerken. In die dagen werden de eerste internetprotocollen geschreven. Je kunt het je nu wellicht niet meer voorstellen maar ik heb in die jaren pizza-avonden gehad waarbij wij vol vurig enthousiasme discussieerden over de protocollen, die we nu allemaal dagelijks onwetend gebruiken. http, https, het zijn vergeten maar hele belangrijke bouwstenen. Zo ontstond Internet 1.0. en later 2.0”

Perpetual beta

“Door de opkomst van de pc’s ontstond er nog iets aardigs. Voorheen was het bij applicatieontwikkeling op de mainframe van belang om deze zo efficiënt mogelijk te laten maken. Voor de software op de pc’s lag dat anders. Verkorting van de time to market werd het leidende motief. Mooi voorbeeld daarvan is het verschil tussen het vroegere IBM en het veel later ontstane Google. IBM leverde vooral een ’af-product’ met hier en daar wellicht nog een bug of een veiligheidslek. Google levert nu, net als de andere internetgiganten producten in betaversie.”

Van lokale servers naar de cloud

“Door de grote proliferatie van servers en applicaties was er veel ruimte ontstaan voor optimalisatie van zowel gebruik als energieverbruik van de gedistribueerde ICT infrastructuur. Dat leidde weer tot centralisatie van hardware maar nog steeds binnen het client-server concept (door gebruik te maken van virtualisatie). En zo ontstond de cloud, eerst en vooral om (net als toen met het mainframe) efficiënter en sneller applicaties te ontwikkelen en beheren en later om de kosten en energieverbruik te drukken. In 2007 publiceerde Gartner een alarmerend bericht: ICT produceert even veel CO2 als de vliegindustrie. Er vond daarom een grote optimalisatieslag plaats van het wereldwijde, energie slurpende server park. Oude servers vroegen zo veel energie dat deze voor de ‘end of live’ goedkoper konden worden vervangen door energie zuinige servers. Daarnaast was er opgeteld veel overcapaciteit aan processoren en opslag beschikbaar. Gemiddeld werd maar 10-30% gebruikt en iedereen had die overcapaciteit op z’n eigen servers wel beschikbaar. Dit werkt een beetje hetzelfde als de solvabiliteit van 1 bank. Door die capaciteit centraal beschikbaar te stellen kwam ineens heel veel extra reken en procesruimte vrij. Er werd een applicatieschil gebouwd waar gebruikers collectief gebruik van konden maken. Eerst in de private cloud, later in de public cloud.”

De cirkel is rond

“Onze pc’s gaan nu weer richting thin clients. De meeste berekeningen en CPU- en data-intensieve handelingen worden in de cloud gedaan. De meeste applicaties draaien nu centraal op servers, eigenlijk net als vroeger maar er is een belangrijk verschil. Vroeger had slechts een aantal service providers het monopolie. Nu is er een veel democratischer model en we gaan richting wat ik noem: het Federatief – Prosumer – Participatory model. Federatief, want er is niet 1 partij die alles bepaalt. Een federatie tussen providers is een must. Prosumer, omdat er steeds meer gebruikers zowel applicaties en content consumeren, als ook produceren en Participatoir, omdat wij steeds meer bereid zijn om onze data te delen en daarmee onze wereld te verbeteren.”

De toekomst: zowel centraal in de cloud als meer lokaal

“Het einde van de groei is zeker nog niet in zicht. Er zijn veel marktontwikkelingen die duiden op een groeiend datagebruik. Internet of Things is daarbij het toverwoord. Overal zitten of komen sensoren, zodat we met machine learning beter analyses en voorspelingen kunnen doen. Dat treft onze gezondheid, energie, verkeer, consumentengedrag, logistiek, de bouw, you name it. En met die groei van de datastroom zullen er ook meer knooppunten van datacenters komen. Federatief, prosumer en participatory vereisen dat het netwerk niet alleen zal moeten bestaan uit steeds grotere maar ook vele kleinere lokale knooppunten. Net als bij de logistiek moet het netwerk steeds verder en slimmer vertakken. Denk eerder aan lokale wijk-datacenters om de hoek. Vanuit financieel oogpunt is dat ook veel logischer. Het is energiezuiniger om een grote file op te halen van een server om de hoek dan vanuit bijvoorbeeld Amerika. Dat inzicht is relatief nieuw, maar is te vergelijken met de ontwikkelingen in de Logistiek. Zie het als de grote hubs gekoppeld aan het fijnmazig netwerkt en de Last Mile. Als je transport kan verkorten dan scheelt dat energie en veel servers, en daarmee geld.”