Digital event “Datacentrische cloudstrategie en datacontinuïteit” groot succes onder cloudarchitecten

Cloud Architect Alliance Event

Op donderdag 22 april 2021 organiseerde de Cloud Architect Alliance het eerste digitale event rondom het thema “Datacentrische cloudstrategie en datacontinuïteit”. In totaal hebben meer dan 85 cloudarchitecten de presentaties van de vier gastsprekers bijgewoond. Na afloop van de presentaties konden alle aanwezigen onder het genot van lekkernijen uit de eerder verzonden borrelbox via het platform van Mibo met elkaar netwerken.

Het event ging van start met een theoretische introductie door Freek Beemster en Bart M. Veldhuis. Ze vertelden dat bedrijven die het verschil willen maken en marktleider willen worden, moeten transformeren naar een digitale enterprise. Bedrijven die deze transformatie willen maken, moeten data beschikbaar stellen waar het nodig is. De afgelopen jaren hebben we een ontwikkeling gezien van system centric (rond 2005) via application centric (2005-2020) naar datacentric (vanaf 2021). Het is belangrijk dat organisaties hun metadata in kaart brengen en invulling geven aan hun cloudstrategie.

Datafabric samenstellen met eigen data

De eerste spreker tijdens het event was Joost van Drenth, Manager Solutions Engineering bij NetApp, een organisatie gericht op het oplossen van problemen met data in de meest kritische omgevingen. De centrale vraag daarbij is: hoe krijg je data veilig en op tijd op de juiste plekken tegen de juiste prijs? Joost vertelde over de architectuur datafabric die NetApp in 2014 heeft gelanceerd. Een datafabric bestaat uit een samenhang tussen storagesystemen, software en cloud dataservices. De uitwisseling van data in zo’n datafabric kan naadloos en zonder conversie plaatsvinden tussen verschillende platformen. Inmiddels is deze basis aangevuld met diensten voor het automatisch en transparant migreren van ongebruikte data naar de cloud om zo kosten te besparen. Het is tevens mogelijk om crossclouds back-ups te maken met mogelijkheden om recovery tussen verschillende cloudomgevingen te realiseren, waarbij data is beschermd tegen aanvallen met ransomware. Zo zijn organisaties in staat om een datafabric samen te stellen met hun eigen data. Joost gaf in zijn presentatie hiervan een tweetal praktijkvoorbeelden bij King’s College Hospital en AstraZeneca.

Slimme hardloopschoen verbinden met de cloud

De tweede presentatie werd verzorgd door Edwin Idema, voormalig Chief Information Officer bij ASICS, en Edwin Weijdema, Global Technologist bij Veeam. Edwin Idema vertelde over de slimme hardloopschoenen van ASICS, waarin een slimme chip is verwerkt. Deze chip registreert bijvoorbeeld de hartslag van de hardloper en de exacte locatie. Het is uiteindelijk de bedoeling dat deze data naar de cloud gaat en kan worden gedeeld met de hardloper, die daarvoor apps als RunKeeper en Race Roster gebruikt. Volgens Edwin Weijdema van Veeam is data is het nieuwe goud. Cloudarchitecten hebben te maken met uitdagingen met data, die elke twee jaar in omvang verdubbelt. Back-ups stonden eerst lokaal, maar tegenwoordig ziet hij dat bedrijven dat in de cloud doen. Hij vertelt dat met behulp van Veeam de beschikbare back-up data veel efficiënter kan worden ingezet.

Port Community System (PCS) zorgt voor smart ports

De derde presentatie werd verzorgd door Robert Jan Erkelens, Programma Manager van Portbase, een betrouwbare partner voor alle logistieke informatie in Nederlandse havens. Via het Port Community System (PCS) verlopen alle processen in en rondom de havens gemakkelijker, efficiënter en betrouwbaarder. Robert-Jan Erkelens vertelde dat het de missie van Portbase is om een fundamentele bijdrage te leveren in het realiseren van smart ports om zo de concurrentiepositie van de Nederlandse havens te versterken. Portbase werkt samen met het Ministerie van Infrastructuur en Waterstaat, dat recent de digitale transport strategie heeft opgesteld. Deze digitale transportstrategie heeft als doel om de concurrentiepositie van heel logistiek Nederland te behouden en te versterken. Dat moet gerealiseerd worden door het stimuleren van de adoptie van de mogelijkheden die de moderne IT en datatechnologie te bieden heeft. Daarvoor moet ook een basisinfrastructuur voor het delen van data worden ontwikkeld. Portbase is gevraagd om het ministerie hierin te ondersteunen.

Netwerken via Mibo

Aan het einde van de prestaties maakten Freek en Bart de winnaar van de cloudarchitect kennisquiz, die werd gepresenteerd door Jan Spigt, bekend. De winnaar was Dennis F, die daarmee ook het donatiebedrag aan KWF Kankerbestrijding met maar liefst € 359,60 wist te verhogen. Voor elke bezoeker aan het event doneerde de Cloud Architect Alliance namelijk € 5 aan KWF Kankerbestrijding. Samen met de donatie van € 750 van Oblivion Cloud Consultancy kon de Cloud Architect Alliance maar liefst € 1.750 euro doneren aan het KWF Kankerbestrijding. Freek en Bart bedankten sprekers, sponsors en deelnemers voor hun aanwezigheid en hierna gingen de vrijwel alle aanwezigen onder het genot van de lekkernijen uit de borrelbox netwerken op een de vier Mibo eilanden.

Online event gemist?

Heb je het digitale event “Datacentrische cloudstrategie en datacontinuïteit” op 22 april gemist? Geen punt! Het gehele event kun je ook online terugkijken via deze link op het YouTube kanaal van de Cloud Architect Alliance. Ook als je er bij bent geweest en je wilt een bepaalde presentatie nog een keer op je gemak terugkijken, dan is dan mogelijk. Van elke presentatie hebben we een aparte video gemaakt, zodat je direct het onderwerp van jouw keuze kunt bekijken.

Op 7 september 2021 zal de Cloud Architect Alliance een nieuw online event over het thema Cloud Native Security organiseren. Ook dit keer nodigen we een aantal interessante gastsprekers uit. Wie dat zijn? Dan zullen we zo spoedig mogelijk laten weten via onze website en nieuwsbrief. We hopen jou in elk geval op 7 september 2021 te mogen begroeten tijdens ons event. Tot dan!

Met een datafabric maken organisaties data op een veilige manier inzichtelijk

Met een datafabric maken organisaties data op een veilige manier inzichtelijk

In de aanloop naar het Cloud Architect Alliance evenement ‘Datacentrische cloudstrategie en datacontinuïteit‘ geven onze sprekers een voorproefje van wat zij gaan vertellen. Joost Van Drenth van NetApp zal tijdens zijn sessie uitleggen wat datafabric is en via twee praktijkcases deze technologie uitdiepen voor de aanwezige groep cloudarchitecten.

Joost van Drenth werkt al tien jaar bij NetApp en is Lead Architect en Manager Solutions Engineering van de groep Solutions Architects, die uit zestien personen bestaat. “NetApp houdt zich bezig met oplossingen voor datamanagement en de hybride cloud. We vertalen uitdagingen in de business naar technische oplossingen en omgekeerd. In 2014 zijn we gestart met een datafabric, een architectuur die de verhoudingen tussen verschillende services, diensten, software en hardware beschrijft, zowel in datacenters als in verschillende cloudomgevingen. Met een data fabric hebben organisaties de vrijheid om data naar eigen inzicht en in elke omgeving te mixen en te matchen.” 

King’s College Hospital

“Een paar jaar geleden zeiden we: als we alle data op een hoop gooien, kunnen we met big data technologie goede analyses maken. We zien nu dat de industrie alweer in de volgende fase is beland. Deze moeten we even verbeteren. Dat komt omdat het centraal opslaan van alle data niet te betalen is en daarom voor alle organisaties niet de meest succesvolle route is. Als je alle data van applicaties van enterprises kopieert en in een cloud neerzet, ben je binnen een maand bankroet. Dus is het noodzakelijk om op een slimmere manier selecties te maken en inzichten te hebben hoe je die data in jouw eigen omgeving kunt distribueren.”

Na een algemene introductie over data fabric zal Joost tijdens zijn presentatie de eerste praktijkcase gaan behandelen. “Samen met NVIDIA, King’s College Hospital en National Health Service (NHS) zijn we een project gestart. Verschillende ziekenhuizen en organisaties zijn nu in staat om pragmatisch en snel met kunstmatige intelligentie aan de slag te gaan. De centrale vraag tijdens dit project was: kan ik betere AI-applicaties ontwikkelen als ik patiëntendata van verschillende ziekenhuizen kan analyseren? In de praktijk zijn deze data op verschillende locaties en ook op verschillende manieren opgeslagen. De uitdaging was om deze data beschikbaar te maken.”

AstraZeneca

De tweede case gaat over AstraZeneca, een farmaceutisch bedrijf dat inmiddels wereldwijd bekendheid geniet vanwege het vaccin dat ze voor COVID-19 hebben ontwikkeld. “AstraZeneca heeft enkele jaren geleden met behulp van technologie van NetApp een data fabric gebouwd. Ze zijn hierdoor in staat om snel op marktontwikkelingen te reageren. In hun proces van digitale transformatie hebben ze daar profijt van ondervonden. Aanvankelijk viel met vaccins geen droog brood te verdienen. Inmiddels is dat veranderd en bestaat er voor een COVID-19 vaccin een wereldwijde afzetmarkt. Door hun eigen AstraZeneca datafabric hebben ze snel op deze veranderende marktvraag kunnen inspelen.”

Wat zijn de belangrijkste leerpunten voor de cloudarchitecten tijdens de presentatie? “Ik zal uiteenzetten dat we over een technologie beschikken waarmee organisaties op een veilige en inzichtelijke manier data kunnen beheren, verplaatsen en beschermen. Dat geldt ook voor de data die het datacenter verlaten. Iedereen praat nu over de transitie naar de cloud, maar vanuit NetApp zijn we veel meer geïnteresseerd in de stappen die daarop volgen, denk aan het veranderen van cloudservice en/of cloudaanbieder. En niet onbelangrijk: met een data fabric is het mogelijk om de kosten te managen. Het gaat om continuous optimization van het gehele netwerk. Het is dus het continue optimaliseren van alle datanodes, de locaties waar de data staat en het realiseren van verbindingen daartussen”, besluit Joost.

De sessie met Joost Van Drenth is op 22 april 2021 te bekijken en het is mogelijk om na afloop vragen aan hem te stellen. Zorg dat je dit niet mist en claim snel jouw gratis ticket.

Data en IT zijn de motor van iedere organisatie

Data en IT zijn de motor van iedere organisatie

In de aanloop naar het Cloud Architect Alliance evenement  ‘Datacentrische cloudstrategie en datacontinuïteit‘ geven onze sprekers een voorproefje van wat zij gaan vertellen. Edwin Weijdema van Veeam zal vanuit zijn expertise een bijdrage leveren aan de presentatie van Edwin Idema van ASICS, die alles gaat vertellen over data en slimme sportschoenen. 

“Als Global Technologist bij Veeam vervul ik een brugfunctie tussen klanten en partners enerzijds en Product Management en Research & Development anderzijds. Daarnaast geef ik wereldwijd presentaties en als onze afdeling Product Management meer wil weten over vraagstukken bij onze klanten, dan zorg ik ervoor dat ze deze antwoorden krijgen.”, zegt Edwin Weijdema. “Veeam is een backup- en recoveryspecialist. Met onze oplossingen kunnen organisaties workloads en data veiligstellen. Ze kunnen gemakkelijk de data weer herstellen, zodat processen weer operationeel zijn. Ook is mogelijk om workloads met  data uit een bepaalde cloudomgeving te migreren naar een andere cloudaanbieder. Veeam biedt hiermee een exitstrategie, zodat organisaties niet noodgedwongen vastzitten aan een bepaalde cloudaanbieder.”

Overstap naar de cloud

“Door de coronacrisis zijn mensen het afgelopen jaar noodgedwongen vanuit huis gaan werken. Veel organisaties hebben alsnog versneld de overstap naar de cloud moeten maken. Dat kwam ook omdat servers nauwelijks leverbaar zijn. Maar het blijkt dat organisaties tijdens deze overstap onvoldoende hebben nagedacht over dataveiligheid. Dat zien we bij werken vanuit de cloud, maar ook als ze verschillende clouds met elkaar verbinden. We zien tegenwoordig een gigantische groei van data, die samen met de IT als de motor van een organisatie fungeren. Dat heeft de pandemie ons wel duidelijk gemaakt. Bedrijven hebben ontdekt dat IT eigenlijk geen kostenpost is. Zonder IT staat het bedrijf namelijk stil. Dat is iets wat cloudarchitecten ook zien. Ze zijn getransformeerd naar businessarchitecten, die meer vanuit de business dan vanuit IT moeten redeneren.” 

Aanvallen op data 

Edwin Weijdema heeft de afgelopen twee jaar meer aanvallen op data gezien. Dat komt volgens hem omdat data waardevol zijn. “Veel bedrijven gaan geld investeren in technologie omdat ze dit als een probleem van de afdeling IT zien. Maar data en IT zijn onderdeel van de business geworden, want bij een aanval ligt het gehele bedrijf stil. Dan is het niet meer alleen een IT-probleem. De organisatie moet dus geld investeren in mensen, processen en innovatie. Dit is een uitdaging waar ook cloudarchitecten mee te maken krijgen. Hoe ga ik het beschikbare budget zo slim en kostenefficiënt mogelijk inzetten?” 

Wat kunnen we van tijdens presentatie van Edwin Weijdema op 22 april verwachten? “Ik tracht de cloudarchitecten een aantal eyeopeners te geven. Zelf werk ik vanuit de business en dat heb ik gemeen met cloudarchitecten. Ik zie dat organisaties problemen hebben en worstelen met de vraag hoe ze dat moeten oplossen. Dat doen cloudarchitecten ook. Die redeneren ook vanuit een probleem en proberen door het bedenken van een architectuur daarvoor een oplossing te bieden. Vanuit mijn expertise zal ik uiteenzetten hoe de oplossingen van Veeam het werk van cloudarchitecten kunnen vergemakkelijken.”

Data, integriteit en slimme schoenen

Data, integriteit en slimme schoenen

In de aanloop naar het Cloud Architect Alliance evenement  ‘Datacentrische cloudstrategie en datacontinuïteitgeven onze sprekers een voorproefje van wat zij gaan vertellen. Oud-CIO EMEA en CTO Global van sportmerk ASICS, Edwin Idema, deelt zijn visie over het inrichten van logische en veilige datastromen wanneer deze van zowel interne- als externe databronnen gebruik maken. De vraag die centraal staat bij deze sessie is ‘Hoe moeten bedrijven die willen innoveren met hun data omgaan?’

Interne- en externe databronnen koppelen

De innovatie die steeds meer bedrijven doorvoeren is een samenwerking met hun businesspartners op het gebied van data. Hierdoor ontstaat er een mix van interne- en externe databronnen. “Met data die op verschillende plekken is opgeslagen, is het een hele klus om ervoor te zorgen dat de data-integriteit en vertrouwelijkheid wordt behouden.“ volgens Idema. “Termen als fakenews zijn vandaag de dag bekend, maar hoe goed (real) is de data waar organisaties mee aan de haal gaan, wanneer deze van het internet wordt gehaald?” 

De uitdaging voor iedere cloudarchitect is om een goede balans te vinden in vertrouwelijkheid, integriteit en beschikbaarheid van de data. Zeker wanneer er ook externe databronnen worden geraadpleegd. De toegevoegde waarde van externe databronnen is dat ze voor meer en betere inzichten zorgen. Maar dat brengt ook vraagstukken met zich mee zoals ‘Hoe implementeer je zo’n externe datastroom op de huidige infrastructuurplaat?’ en ‘Hoe ben je zeker dat de gekoppelde data, de juiste informatie aangeeft?’. 

Realtime terugkoppeling

Wat hebben de nieuwste schoenen van sportmerk ASICS gemeen met data en integriteit?  Edwin Idema hierover ”Het zijn ‘slimme schoenen’. Via een chip in de zool die verbonden is met de cloud zorgt data uit de zool, voor realtime terugkoppeling bij een sporter. Een hardloper kan bijvoorbeeld op deze manier realtime feedback in de app van Runkeeper ontvangen, wat resulteert in advies over bijvoorbeeld loopsnelheid en ademhaling.”

Zulke data is voor een sporter onwijs waardevol. Maar een organisatie die normaliter kleding produceert voor sporters, zal nu ineens moeten gaan nadenken over waar het data opslaat, hoe het persoonlijke gegevens waarborgt en hoe het er voor zorgt dat de data altijd real time en integer is. ‘’  

Tijdens het komende digitale Cloud Architect Alliance event ‘Datacentrische cloudstrategie en datacontinuïteit’ op 22 april zal Edwin Idema aan de hand van bovenstaande case dieper ingaan op onderwerpen als het centraliseren van data, metadata en de uitdagingen die een mix van interne- en externe databronnen met zich meebrengt.De sessie wordt live uitgezonden en gedurende de presentatie is er een mogelijkheid om vragen te stellen aan Edwin. Zorg ervoor dat je dit niet mist en claim nu jouw gratis ticket

Hoe stellen we de databehoefte bij gebruikers vast?

Robert Jan Erkelens

In de aanloop naar het Cloud Architect Alliance evenement “Datacentrische cloudstrategie en datacontinuïteit” op 22 april 2021 geven onze sprekers een voorproefje van wat zij gaan vertellen. Robert Jan Erkelens van Portbase zal tijdens zijn sessie dieper ingaan op de vraag hoe organisaties de behoefte aan data bij gebruikers kunnen vaststellen, zodat ze hun werk beter kunnen uitvoeren. 

In het dagelijkse leven is Robert Jan Erkelens werkzaam als Programma Manager Digital bij Portbase , een not-for-profit organisatie die met behulp van informatie- en cloudtechnologie bijdraagt aan het realiseren van slimme havens. “Vanuit mijn functie begeleid ik de overgang naar nieuwe technologieën. Dit betekent onder andere een migratietraject naar de publieke cloud en de bijbehorende aanpassingen in het applicatielandschap. Inmiddels hebben we hierin behoorlijke slagen weten te maken.”

Vaststellen informatiebehoefte

“Tijdens mijn sessie behandel ik het verschil tussen data en informatie. Iedereen heeft het tegenwoordig over datadriven opereren, maar waar het uiteindelijk om gaat, is dat een gebruiker met de aangeleverde data beter zijn of haar werk kan doen. Met de juiste informatie moet de gebruiker in staat zijn om voordelen te realiseren”

In een speelveld met veel actoren is het lastig om alle behoeften van de gebruikers te inventariseren. Het is meestal niet mogelijk om met iedereen daarover in gesprek te gaan. Om toch de behoeften in kaart te brengen, kunnen organisaties de working backwards methode inzetten. “Bij deze methodiek redeneren de onderzoekers vanuit het perspectief van de eindgebruiker. Welk probleem heeft de eindgebruiker en hoe kun je hierbij helpen? Eigenlijk start je bij de output en redeneer je terug: wat is er nodig om in die behoefte te voorzien? “, verduidelijkt Robert Jan.

Data Exchange Facility Logistics (DEFLog)

“Dit vraagstuk speelt ook in mijn huidige werkomgeving een rol. In relatie tot de migratie naar de publieke cloud, hebben we de vraag gesteld: waaruit bestaat de behoefte van onze developers, zodat ze hun werk beter kunnen doen? Hoe kunnen we deze groep hierbij maximaal ondersteunen? Voor de ondersteunende processen willen we een migratie naar SaaS realiseren. Ook hier geldt hetzelfde: Wat hebben medewerkers in een ondersteunende rol echt nodig om hun werk goed te kunnen doen?”

Vanuit zijn huidige rol bij Portbase is Robert Jan ook betrokken bij een partnership met het Ministerie van Infrastructuur en Waterstaat. Met behulp van cloudtechnologie is in samenwerking met verschillende partijen de Data Exchange Facility Logistiek (DEFLog) ontwikkeld, een infrastructuurvoorziening voor de logistieke sector om onderling data uit te wisselen. In zijn presentatie zal hij uitvoerig bij alle uitdagingen van DEFLog stilstaan en zijn opgedane ervaringen met de deelnemers delen.

“Mijn presentatie biedt voor cloudarchitecten veel aanknopingspunten denk ik. Een architect moet namelijk eerst onderzoek verrichten voordat hij iets kan ontwerpen. En hierin is het cruciaal om te  redeneren vanuit het uitgangspunt: wie heeft nu eigenlijk een probleem, wat is dat dan precies en hoe kan ik dat oplossen?” De sessie met Robert Jan Erkelens is op 22 april 2021 te bekijken en het is mogelijk om na afloop vragen aan hem te stellen. Zorg dat je dit niet mist en claim snel jouw gratis ticket!

Cloud Architect Alliance al zeven jaar hét kennis- en netwerkplatform voor cloudarchitecten

Cloud Architect Alliance bestaat 7 jaar

Amsterdam, 30 maart 2021 | Voor de beroepsgroep cloudarchitecten organiseert de stichting Cloud Architect Alliance (CAA) al sinds 2014 evenementen waar kennisdelen, netwerken en samenwerken de uitgangspunten zijn. Na zeven jaar succesvol evenementen organiseren, is de Cloud Architect Alliance (CAA) inmiddels een begrip onder de cloudarchitecten in Nederland en daarbuiten.

In 2014 signaleerden Freek Beemster en Bart M. Veldhuis dat cloudarchitecten behoefte kregen om bij elkaar te komen om kennis en ervaringen uit te wisselen. Het beroep cloudarchitect stond nog in de kinderschoenen en de mogelijkheden om onderling ervaringen en vraagstukken te delen, waren nog beperkt. Freek Beemster en Bart M. Veldhuis besloten daarom tot de oprichting van de stichting Cloud Architect Alliance, de enige organisatie in Nederland die zich specifiek richt op cloudarchitecten. 

Evenementen met cloudgerelateerde thema’s 

De Cloud Architect Alliance organiseert voor cloudarchitecten vier keer per jaar een chique diner, waar een actueel cloudgerelateerd thema centraal staat. Doordat de Cloud Architect Alliance samenwerkt met verschillende sponsors, kunnen de cloudarchitecten geheel gratis aan een diner deelnemen. Van de naar schatting 2.200 in Nederland werkzame cloudarchitecten heeft bijna de helft daarvan aan een of meer evenementen van de Cloud Architect Alliance deelgenomen. Uit de ontmoetingen op deze evenementen zijn al vele samenwerkingen voortgekomen en zelfs bedrijven ontstaan.

Datacentrische Cloudstrategie en Datacontinuïteit

Op donderdagavond 22 april 2021 organiseert de Cloud Architect Alliance dit keer een online event met het thema “Datacentrische Cloudstrategie en Datacontinuïteit”, waar vijf verschillende sprekers met de aanwezige deelnemers hun expertise en praktijkervaringen zullen delen. “Data zit op de verkeerde plekken, in de verkeerde systemen en blijkt niet toegankelijk voor de juiste gebruikers. Dat is een situatie die we in de praktijk nog te vaak zien. Applicatielandschappen blijken veelal niet modulair te zijn opgebouwd. Het landschap bestaat uit solide, maar weinig flexibele bouwblokken, zoals bijvoorbeeld de suites van SAP en Oracle, die veel opties bieden, maar waarbij het tegelijkertijd veel tijd en moeite kost om de juiste data eruit te halen.”, zegt Bart M. Veldhuis.

Over Cloud Architect Alliance

De Cloud Architect Alliance (CAA) is in 2014 door Freek Beemster en Bart M. Veldhuis opgericht met als doel het faciliteren van uitwisseling van kennis en ervaringen onder cloudarchitecten. Vier keer per jaar organiseert de Cloud Architect Alliance (CAA) exclusief voor deze doelgroep evenementen, waar ook de awards voor Cloud Architect of the Year, Cloud Security Architect of the Year en Cloud Engineer of the Year worden uitgereikt. De CAA adresseert verschillende soorten thema’s van cloudsecurity, cloudnative architectucture tot aan wat complexere thema’s als ethisch handelen. Als een onafhankelijk platform kunnen de cloudarchitecten zonder enige invloed van vendors op een onafhankelijke manier met elkaar van gedachten wisselen. In Nederland is bijna de helft van alle werkzame cloudarchitecten aangesloten bij de Cloud Architect Alliance (CAA), die ook samenwerkt met andere belangen- en brancheorganisties op het gebied van cloudtechnologie.

De oprichters van de Cloud Architect Alliance (CAA) hebben de afgelopen jaren hun sporen in de cloudsector verdiend. Freek Beemster heeft zich de afgelopen tien jaar als gespecialiseerd headhunter sterk gepositioneerd binnen dit (internationale) netwerk van cloudarchitecten en samen met twee ervaren cloudarchitecten heeft hij begin 2020 een nieuw bedrijf opgericht: Day2, een organisatie met onafhankelijke hands-on cloudexperts die opdrachtgevers usecase gedreven helpen om de meeste waarde uit hun cloudstrategie te halen. Bart M. Veldhuis is een doorgewinterde cloudarchitect met meer dan vijftien jaar ervaring op het gebied van infrastructuurarchitectuur. Hij is een serial entrepreneur en startte de eerste VMware gebaseerde cloudprovider in de Benelux. Daarnaast is hij oprichter van het vendor onafhankelijke consultancy bedrijf Weolcan, die organisaties helpt met het behalen van tastbare resultaten met hun cloudstrategie.

The do’s and don’ts when architecting a cloud-native data lake

The do’s and don'ts when architecting a cloud native-data lake

The cloud community still is on the fence about data lakes. On the one hand one could argue it’s a fancy word for something that has existed since humans started using computers. On the other hand, with the advent of Cloud computing, it is finally possible to store, distribute and process (or mine) unstructured data in a safe, governable way that can actually create business value. So when should a Cloud-native data lake be considered, and how can you make it work?

On the fence about data lakes

From a business perspective, cloud-native data lakes can be tricky. In the recent past, large enterprises have attempted to connect and mine (old) datasets with the expectation to gain new insights and ultimately create value. Too often, such projects are guided by a misconception of what ‘Big Data’ is or can do for an organization. Up until this day the internet continues to be littered with promises about AI, machine learning and the secrets that can be unlocked with these technologies in datasets. And while there are many examples of successful cloud-native data lake deployments that add value, the opposite is also true. As was pointed out during the CAA Cloud-native data lake event, senior leadership on occasion becomes enamored by the (real or imagined) possibilities of data, requiring IT to make it happen. Unfortunately, there is a real risk of a waste of time, resources and goodwill.

The challenge for the Cloud Architect

The Cloud Architect thus faces an interesting challenge. He or she needs to be able to make or unmake the case for a Cloud-native data lake, depending on the feasibility of such a project. If there is sufficient ground for architecting a Cloud-native data lake, he or she of course needs to know how to do it. There are numerous variables to take into account that will eventually make a Cloud-native data lake add value for the organization while avoiding the operational and Governance, Risk and Compliance risks that accompany it.

How then should the business case for a cloud-native data lake take shape? We could probably write a book about this (and maybe will someday), but these are the 5 questions a Cloud Architect needs to consider from a business and operational perspective when planning a Cloud-native data lake:

  1. Is there a business oriented problem that can be solved with acquirable data?
  2. Is there sufficient scale in the data sets, is there enough data to justify the required resources?
  3. Does the eventual solution touch the core business?
  4.  Are the right tools available, do business owners and the team understand there needs to be a code base instead of a webportal or GUI?
  5.  Is there a team that knows what to do and can autonomously engineer the data lake, with limited oversight?

Getting these things right will make the difference between a misguided approach and getting the desired results. Those results in turn are highly dependent on the way the data lake is architected.

How a cloud-native data lake can add business value

A useful perspective on architecting a data lake is how the data in the lake should be made available to consumers of this data. Given the fact the data lake holds unstructured data, consumers will have to know which is what, and whether they have access. To see how this would work in practice, it is useful to use an example.

Consider a data lake that holds data sets on mortgages and relevant variables, spanning about two decades. As one can imagine, an institution that is in the business of providing mortgages wants to know how many mortgage holders historically default on them, what the average returns on these mortgages are and will also want to know how mortgage defaults relate to historical interest rates and the historical health of the overall economy in a given country. The data involved has its origin in different data sets, and some of the data is probably privacy sensitive. Also, the data can be sensitive in a competitive sense, justifying tight controls of who has access.

Given the age of the data sets, its highly probable compatibility issues will arise when pushing this data into the data lake. These type of issues can take a lot of time to mitigate, unless an unified data model is issued that is able to assign metadata in a consistent way and making the data available through a publisher-subscriber model. This will also help to control access, and enable teams to discover data without extracting data from the data lake. It is advisable to create an automated workflow which offers a potential subscriber a sample from a data lake, giving him the opportunity to decide whether the data in the lake is useful to him. This workflow will need to automatically provide or deny access based on predefined rules, such as clearances for specific types of data. In this way, the use of this data can be aligned with organizational goals, creating real business value. 

Make a data lake work for you

All in all, the Cloud-native data lake requires a lot of thought, from its conception to its actual use. And even though there is some (contextually justified) skepticism about data lakes, with the right business case and right architecture, innovation can be accelerated with a thoroughly automated data lake.

Cloud Architect of the Year awards 2020

Rob Reus

Cloud Architect of the Year awards 2020

Massive congratulations to Rob Reus, Dennis Vijlbrief and Rene Pingen! They are the well-deserved winners of the respective Cloud Engineer, Cloud Security Architect and Cloud Architect of the year awards. 

Well done and special thanks to our sponsors NetApp, Microsoft, Vamp.io and of course Global Knowledge. 

We will return with a new edition of the Cloud Architect of the Year awards next year!

 

Rob Reus

Cloud Engineer of the Year 2020

Rob Reus

Dennis Vijlbrief

Cloud Security Architect of the Year 2020

Dennis Vijlbrief

René Pingen

Cloud Architect of the Year 2020

René Pingen

How to avoid getting stuck in a data swamp

How to avoid getting stuck in a data swamp

In the run up to the much anticipated Cloud Architect Alliance diner and award show on January 30th, our speakers give a sneak peak into what they have to say that night. Data Solution Architect René Bremer and Senior Cloud Solution Architect Sarath Sasidharan, both currently at Microsoft, share their take on architecting secure data lakes that add business value.

The challenge of scattered data

Many enterprises are considering setting up an enterprise data lake. They want (and often need) to get more business value out of the data that is available within the organization. But even though the potential value of data is recognized, actually using data in this way can be a challenge.

According to René Bremer and Sarath Sasidharan, enterprises need to centralize data first before they can use it to create business value. “Large enterprises face a problem when data needs to be accessible to different teams, departments and offices.” Bremer says. “The last thing you want is teams exchanging data bilaterally, as this data will be ‘marginalized’ and most likely is not accessible to the rest of the organization. It’s difficult to control data that does not have a single source that is used by the whole organization. Centralizing data therefore is the first step to creating a data lake that adds business value.”

Controlling accessible and useful data in a data lake

Centralizing data is a first step, but it certainly should not be the only one. For data in a data lake to become useful, it should be clear who owns it and who is allowed to access it. A pub-sub service should be in place to ensure asynchronous use of data. “Both metadata and a clearly defined pub-sub paradigm are key to creating a functional data lake” Sasidharan explains. “Any data that is put into a data lake needs to be stored according to a proper methodology, with proper metadata and scheming validation for pub-sub to work as it is intended to.”

Adding metadata may seem a fairly straightforward affair, but when terabytes or petabytes of data are involved, a strict policy for assigning metadata fields and labels makes the difference between a functional data lake and a dysfunctional data swamp, Bremer says. “You need to think long and hard about the way metadata is added to data. Business metadata, technical metadata and operational metadata need to be compulsory additions to data that is put in a data lake. Without them, it will be difficult to determine the source and value of data. And even worse, it will be difficult to have tools use the data at all. Ideally, metadata can be interpreted by a variety of tools, for example Bricks or Sequel.” 

And that’s not all, according to Sasidharan. “You will also need to think about the data lake from the consumer’s perspective. You need to adhere to certain standards for API’s, streaming and other ways data in a data lake can be published. It should be easy for a data consumer to access the desired data while at the same time controls should be in place to ensure only authorized users can access certain data for a predefined period of time. A single pane of glass to manage consumption of data in a data lake is indispensable to a secure and efficient enterprise data lake.”

Learnings from real customer cases

To eliminate data siloes between application and business departments, Microsoft has created an open source data model (called Common Data Model) in collaboration with SAP and Adobe. During the upcoming Cloud Architect Alliance event on January 30th, Bremer and Sasidharan will discuss two customer cases and will elaborate on pub-sub flows, metadata and the Common Data Model, and general principles that need to be considered when implementing a data lake. To get guests started, they will even share some generic patterns on metadata and pub-sub. Make sure you don’t miss out and claim your free ticket right now! Don’t wait too long, there’s only a few spots left.

The sense and nonsense of cloud-native data lakes

The sense and nonsense of cloud-native data lakes

In the run up to the much anticipated Cloud Architect Alliance diner and award show on January 30th, our speakers give a sneak peak into what they have to say that night. First up is Maurits van der Drift, mission critical cloud engineer at Schuberg Philis. Van der Drift will talk about the sense and nonsense of cloud-native data lakes and how data can help to enhance business models.

Nothing more than a database?

Gone are the days when tens or hundreds of on premises or colocated servers were clustered with Hadoop to store and process unstructured data. Cloud-native data lakes offer a far more flexible way to create and maintain databases without the need to manage the physical hardware. Another major advantage is that cloud-native data lakes are not bound to a specific location, which makes planning and executing migrations (from data center to data center, for example), a thing of the past. Even though a cloud-native data lake may in its core function like a data warehouse or data base, its cloud-native nature offers far more possibilities.

“One might think the term ‘cloud-native’ is just marketing lingo for what is essentially a database”, Van der Drift says. “And even though that would be a legitimate take on the cloud-native data lake from a purely conceptual point of view, recent technological developments have really changed how data can be leveraged to add business value. The cloud is indispensable in this sense, because it offers an efficient, tailor made solution for data analysis and value extraction.”

Know what to look for before you take a dive

That being said, the promise of data lakes has not yet been fulfilled, Van der Drift observes. “When the idea of data lakes started to become more popular, there seemed to be no limit to the business value unstructured data could generate. Combined with AI and machine learning, many organizations were told they were sitting on massive amounts of useful data and they needed to tap into this new possible revenue stream. The truth is however that in many cases, the unstructured data organizations have is tough to leverage from a business perspective. In addition, even if value can be extracted from unstructured data, it can only be successfully leveraged if you know what you are looking for. In other words: you need to have made the business case for a cloud-native data lake before you actually start creating one.”

Even though Van der Drift has some reservations when it comes to ‘the promises of Big Data’, he notes there are many ways to create business value with data lakes. And it has become easier to do so. ‘A major advantage of cloud-native data lakes is the razor-sharp efficiency they bring. You don’t have to invest in hardware anymore, you don’t have to keep developers on your payroll to maintain your clusters and you only pay for what you use. Infrastructure costs for cloud-native solutions usually are only 10% of the total costs of a project. This means that a small increase in efficiency can rationalize a large increase in infrastructure costs. Needless to say, the threshold to use data analysis is lowered, but it remains important to know why you want to set up a cloud-native data lake and what the desired results are.”

Claim your free ticket for our upcoming event

Do you want to see Maurits explain when and how a cloud-native data lake can add business value? And would you like to enjoy the company of your peers and a free three course dinner while doing so? Join us January 30th 2020 during our next event: ‘How to build a cloud-native data lake & annual Election Night’. During this diner show, you will learn everything there is to know about cloud-native data lakes and can also enjoy the annual Cloud Architect of the Year election. There number of available tickets is limited so make sure to claim yours right now!