Data en IT zijn de motor van iedere organisatie

Data en IT zijn de motor van iedere organisatie

In de aanloop naar het Cloud Architect Alliance evenement  ‘Datacentrische cloudstrategie en datacontinuïteit‘ geven onze sprekers een voorproefje van wat zij gaan vertellen. Edwin Weijdema van Veeam zal vanuit zijn expertise een bijdrage leveren aan de presentatie van Edwin Idema van ASICS, die alles gaat vertellen over data en slimme sportschoenen. 

“Als Global Technologist bij Veeam vervul ik een brugfunctie tussen klanten en partners enerzijds en Product Management en Research & Development anderzijds. Daarnaast geef ik wereldwijd presentaties en als onze afdeling Product Management meer wil weten over vraagstukken bij onze klanten, dan zorg ik ervoor dat ze deze antwoorden krijgen.”, zegt Edwin Weijdema. “Veeam is een backup- en recoveryspecialist. Met onze oplossingen kunnen organisaties workloads en data veiligstellen. Ze kunnen gemakkelijk de data weer herstellen, zodat processen weer operationeel zijn. Ook is mogelijk om workloads met  data uit een bepaalde cloudomgeving te migreren naar een andere cloudaanbieder. Veeam biedt hiermee een exitstrategie, zodat organisaties niet noodgedwongen vastzitten aan een bepaalde cloudaanbieder.”

Overstap naar de cloud

“Door de coronacrisis zijn mensen het afgelopen jaar noodgedwongen vanuit huis gaan werken. Veel organisaties hebben alsnog versneld de overstap naar de cloud moeten maken. Dat kwam ook omdat servers nauwelijks leverbaar zijn. Maar het blijkt dat organisaties tijdens deze overstap onvoldoende hebben nagedacht over dataveiligheid. Dat zien we bij werken vanuit de cloud, maar ook als ze verschillende clouds met elkaar verbinden. We zien tegenwoordig een gigantische groei van data, die samen met de IT als de motor van een organisatie fungeren. Dat heeft de pandemie ons wel duidelijk gemaakt. Bedrijven hebben ontdekt dat IT eigenlijk geen kostenpost is. Zonder IT staat het bedrijf namelijk stil. Dat is iets wat cloudarchitecten ook zien. Ze zijn getransformeerd naar businessarchitecten, die meer vanuit de business dan vanuit IT moeten redeneren.” 

Aanvallen op data 

Edwin Weijdema heeft de afgelopen twee jaar meer aanvallen op data gezien. Dat komt volgens hem omdat data waardevol zijn. “Veel bedrijven gaan geld investeren in technologie omdat ze dit als een probleem van de afdeling IT zien. Maar data en IT zijn onderdeel van de business geworden, want bij een aanval ligt het gehele bedrijf stil. Dan is het niet meer alleen een IT-probleem. De organisatie moet dus geld investeren in mensen, processen en innovatie. Dit is een uitdaging waar ook cloudarchitecten mee te maken krijgen. Hoe ga ik het beschikbare budget zo slim en kostenefficiënt mogelijk inzetten?” 

Wat kunnen we van tijdens presentatie van Edwin Weijdema op 22 april verwachten? “Ik tracht de cloudarchitecten een aantal eyeopeners te geven. Zelf werk ik vanuit de business en dat heb ik gemeen met cloudarchitecten. Ik zie dat organisaties problemen hebben en worstelen met de vraag hoe ze dat moeten oplossen. Dat doen cloudarchitecten ook. Die redeneren ook vanuit een probleem en proberen door het bedenken van een architectuur daarvoor een oplossing te bieden. Vanuit mijn expertise zal ik uiteenzetten hoe de oplossingen van Veeam het werk van cloudarchitecten kunnen vergemakkelijken.”

Data, integriteit en slimme schoenen

Data, integriteit en slimme schoenen

In de aanloop naar het Cloud Architect Alliance evenement  ‘Datacentrische cloudstrategie en datacontinuïteitgeven onze sprekers een voorproefje van wat zij gaan vertellen. Oud-CIO EMEA en CTO Global van sportmerk ASICS, Edwin Idema, deelt zijn visie over het inrichten van logische en veilige datastromen wanneer deze van zowel interne- als externe databronnen gebruik maken. De vraag die centraal staat bij deze sessie is ‘Hoe moeten bedrijven die willen innoveren met hun data omgaan?’

Interne- en externe databronnen koppelen

De innovatie die steeds meer bedrijven doorvoeren is een samenwerking met hun businesspartners op het gebied van data. Hierdoor ontstaat er een mix van interne- en externe databronnen. “Met data die op verschillende plekken is opgeslagen, is het een hele klus om ervoor te zorgen dat de data-integriteit en vertrouwelijkheid wordt behouden.“ volgens Idema. “Termen als fakenews zijn vandaag de dag bekend, maar hoe goed (real) is de data waar organisaties mee aan de haal gaan, wanneer deze van het internet wordt gehaald?” 

De uitdaging voor iedere cloudarchitect is om een goede balans te vinden in vertrouwelijkheid, integriteit en beschikbaarheid van de data. Zeker wanneer er ook externe databronnen worden geraadpleegd. De toegevoegde waarde van externe databronnen is dat ze voor meer en betere inzichten zorgen. Maar dat brengt ook vraagstukken met zich mee zoals ‘Hoe implementeer je zo’n externe datastroom op de huidige infrastructuurplaat?’ en ‘Hoe ben je zeker dat de gekoppelde data, de juiste informatie aangeeft?’. 

Realtime terugkoppeling

Wat hebben de nieuwste schoenen van sportmerk ASICS gemeen met data en integriteit?  Edwin Idema hierover ”Het zijn ‘slimme schoenen’. Via een chip in de zool die verbonden is met de cloud zorgt data uit de zool, voor realtime terugkoppeling bij een sporter. Een hardloper kan bijvoorbeeld op deze manier realtime feedback in de app van Runkeeper ontvangen, wat resulteert in advies over bijvoorbeeld loopsnelheid en ademhaling.”

Zulke data is voor een sporter onwijs waardevol. Maar een organisatie die normaliter kleding produceert voor sporters, zal nu ineens moeten gaan nadenken over waar het data opslaat, hoe het persoonlijke gegevens waarborgt en hoe het er voor zorgt dat de data altijd real time en integer is. ‘’  

Tijdens het komende digitale Cloud Architect Alliance event ‘Datacentrische cloudstrategie en datacontinuïteit’ op 22 april zal Edwin Idema aan de hand van bovenstaande case dieper ingaan op onderwerpen als het centraliseren van data, metadata en de uitdagingen die een mix van interne- en externe databronnen met zich meebrengt.De sessie wordt live uitgezonden en gedurende de presentatie is er een mogelijkheid om vragen te stellen aan Edwin. Zorg ervoor dat je dit niet mist en claim nu jouw gratis ticket

Hoe stellen we de databehoefte bij gebruikers vast?

Robert Jan Erkelens

In de aanloop naar het Cloud Architect Alliance evenement “Datacentrische cloudstrategie en datacontinuïteit” op 22 april 2021 geven onze sprekers een voorproefje van wat zij gaan vertellen. Robert Jan Erkelens van Portbase zal tijdens zijn sessie dieper ingaan op de vraag hoe organisaties de behoefte aan data bij gebruikers kunnen vaststellen, zodat ze hun werk beter kunnen uitvoeren. 

In het dagelijkse leven is Robert Jan Erkelens werkzaam als Programma Manager Digital bij Portbase , een not-for-profit organisatie die met behulp van informatie- en cloudtechnologie bijdraagt aan het realiseren van slimme havens. “Vanuit mijn functie begeleid ik de overgang naar nieuwe technologieën. Dit betekent onder andere een migratietraject naar de publieke cloud en de bijbehorende aanpassingen in het applicatielandschap. Inmiddels hebben we hierin behoorlijke slagen weten te maken.”

Vaststellen informatiebehoefte

“Tijdens mijn sessie behandel ik het verschil tussen data en informatie. Iedereen heeft het tegenwoordig over datadriven opereren, maar waar het uiteindelijk om gaat, is dat een gebruiker met de aangeleverde data beter zijn of haar werk kan doen. Met de juiste informatie moet de gebruiker in staat zijn om voordelen te realiseren”

In een speelveld met veel actoren is het lastig om alle behoeften van de gebruikers te inventariseren. Het is meestal niet mogelijk om met iedereen daarover in gesprek te gaan. Om toch de behoeften in kaart te brengen, kunnen organisaties de working backwards methode inzetten. “Bij deze methodiek redeneren de onderzoekers vanuit het perspectief van de eindgebruiker. Welk probleem heeft de eindgebruiker en hoe kun je hierbij helpen? Eigenlijk start je bij de output en redeneer je terug: wat is er nodig om in die behoefte te voorzien? “, verduidelijkt Robert Jan.

Data Exchange Facility Logistics (DEFLog)

“Dit vraagstuk speelt ook in mijn huidige werkomgeving een rol. In relatie tot de migratie naar de publieke cloud, hebben we de vraag gesteld: waaruit bestaat de behoefte van onze developers, zodat ze hun werk beter kunnen doen? Hoe kunnen we deze groep hierbij maximaal ondersteunen? Voor de ondersteunende processen willen we een migratie naar SaaS realiseren. Ook hier geldt hetzelfde: Wat hebben medewerkers in een ondersteunende rol echt nodig om hun werk goed te kunnen doen?”

Vanuit zijn huidige rol bij Portbase is Robert Jan ook betrokken bij een partnership met het Ministerie van Infrastructuur en Waterstaat. Met behulp van cloudtechnologie is in samenwerking met verschillende partijen de Data Exchange Facility Logistiek (DEFLog) ontwikkeld, een infrastructuurvoorziening voor de logistieke sector om onderling data uit te wisselen. In zijn presentatie zal hij uitvoerig bij alle uitdagingen van DEFLog stilstaan en zijn opgedane ervaringen met de deelnemers delen.

“Mijn presentatie biedt voor cloudarchitecten veel aanknopingspunten denk ik. Een architect moet namelijk eerst onderzoek verrichten voordat hij iets kan ontwerpen. En hierin is het cruciaal om te  redeneren vanuit het uitgangspunt: wie heeft nu eigenlijk een probleem, wat is dat dan precies en hoe kan ik dat oplossen?” De sessie met Robert Jan Erkelens is op 22 april 2021 te bekijken en het is mogelijk om na afloop vragen aan hem te stellen. Zorg dat je dit niet mist en claim snel jouw gratis ticket!

Cloud Architect Alliance al zeven jaar hét kennis- en netwerkplatform voor cloudarchitecten

Cloud Architect Alliance bestaat 7 jaar

Amsterdam, 30 maart 2021 | Voor de beroepsgroep cloudarchitecten organiseert de stichting Cloud Architect Alliance (CAA) al sinds 2014 evenementen waar kennisdelen, netwerken en samenwerken de uitgangspunten zijn. Na zeven jaar succesvol evenementen organiseren, is de Cloud Architect Alliance (CAA) inmiddels een begrip onder de cloudarchitecten in Nederland en daarbuiten.

In 2014 signaleerden Freek Beemster en Bart M. Veldhuis dat cloudarchitecten behoefte kregen om bij elkaar te komen om kennis en ervaringen uit te wisselen. Het beroep cloudarchitect stond nog in de kinderschoenen en de mogelijkheden om onderling ervaringen en vraagstukken te delen, waren nog beperkt. Freek Beemster en Bart M. Veldhuis besloten daarom tot de oprichting van de stichting Cloud Architect Alliance, de enige organisatie in Nederland die zich specifiek richt op cloudarchitecten. 

Evenementen met cloudgerelateerde thema’s 

De Cloud Architect Alliance organiseert voor cloudarchitecten vier keer per jaar een chique diner, waar een actueel cloudgerelateerd thema centraal staat. Doordat de Cloud Architect Alliance samenwerkt met verschillende sponsors, kunnen de cloudarchitecten geheel gratis aan een diner deelnemen. Van de naar schatting 2.200 in Nederland werkzame cloudarchitecten heeft bijna de helft daarvan aan een of meer evenementen van de Cloud Architect Alliance deelgenomen. Uit de ontmoetingen op deze evenementen zijn al vele samenwerkingen voortgekomen en zelfs bedrijven ontstaan.

Datacentrische Cloudstrategie en Datacontinuïteit

Op donderdagavond 22 april 2021 organiseert de Cloud Architect Alliance dit keer een online event met het thema “Datacentrische Cloudstrategie en Datacontinuïteit”, waar vijf verschillende sprekers met de aanwezige deelnemers hun expertise en praktijkervaringen zullen delen. “Data zit op de verkeerde plekken, in de verkeerde systemen en blijkt niet toegankelijk voor de juiste gebruikers. Dat is een situatie die we in de praktijk nog te vaak zien. Applicatielandschappen blijken veelal niet modulair te zijn opgebouwd. Het landschap bestaat uit solide, maar weinig flexibele bouwblokken, zoals bijvoorbeeld de suites van SAP en Oracle, die veel opties bieden, maar waarbij het tegelijkertijd veel tijd en moeite kost om de juiste data eruit te halen.”, zegt Bart M. Veldhuis.

Over Cloud Architect Alliance

De Cloud Architect Alliance (CAA) is in 2014 door Freek Beemster en Bart M. Veldhuis opgericht met als doel het faciliteren van uitwisseling van kennis en ervaringen onder cloudarchitecten. Vier keer per jaar organiseert de Cloud Architect Alliance (CAA) exclusief voor deze doelgroep evenementen, waar ook de awards voor Cloud Architect of the Year, Cloud Security Architect of the Year en Cloud Engineer of the Year worden uitgereikt. De CAA adresseert verschillende soorten thema’s van cloudsecurity, cloudnative architectucture tot aan wat complexere thema’s als ethisch handelen. Als een onafhankelijk platform kunnen de cloudarchitecten zonder enige invloed van vendors op een onafhankelijke manier met elkaar van gedachten wisselen. In Nederland is bijna de helft van alle werkzame cloudarchitecten aangesloten bij de Cloud Architect Alliance (CAA), die ook samenwerkt met andere belangen- en brancheorganisties op het gebied van cloudtechnologie.

De oprichters van de Cloud Architect Alliance (CAA) hebben de afgelopen jaren hun sporen in de cloudsector verdiend. Freek Beemster heeft zich de afgelopen tien jaar als gespecialiseerd headhunter sterk gepositioneerd binnen dit (internationale) netwerk van cloudarchitecten en samen met twee ervaren cloudarchitecten heeft hij begin 2020 een nieuw bedrijf opgericht: Day2, een organisatie met onafhankelijke hands-on cloudexperts die opdrachtgevers usecase gedreven helpen om de meeste waarde uit hun cloudstrategie te halen. Bart M. Veldhuis is een doorgewinterde cloudarchitect met meer dan vijftien jaar ervaring op het gebied van infrastructuurarchitectuur. Hij is een serial entrepreneur en startte de eerste VMware gebaseerde cloudprovider in de Benelux. Daarnaast is hij oprichter van het vendor onafhankelijke consultancy bedrijf Weolcan, die organisaties helpt met het behalen van tastbare resultaten met hun cloudstrategie.

The do’s and don’ts when architecting a cloud-native data lake

The do’s and don'ts when architecting a cloud native-data lake

The cloud community still is on the fence about data lakes. On the one hand one could argue it’s a fancy word for something that has existed since humans started using computers. On the other hand, with the advent of Cloud computing, it is finally possible to store, distribute and process (or mine) unstructured data in a safe, governable way that can actually create business value. So when should a Cloud-native data lake be considered, and how can you make it work?

On the fence about data lakes

From a business perspective, cloud-native data lakes can be tricky. In the recent past, large enterprises have attempted to connect and mine (old) datasets with the expectation to gain new insights and ultimately create value. Too often, such projects are guided by a misconception of what ‘Big Data’ is or can do for an organization. Up until this day the internet continues to be littered with promises about AI, machine learning and the secrets that can be unlocked with these technologies in datasets. And while there are many examples of successful cloud-native data lake deployments that add value, the opposite is also true. As was pointed out during the CAA Cloud-native data lake event, senior leadership on occasion becomes enamored by the (real or imagined) possibilities of data, requiring IT to make it happen. Unfortunately, there is a real risk of a waste of time, resources and goodwill.

The challenge for the Cloud Architect

The Cloud Architect thus faces an interesting challenge. He or she needs to be able to make or unmake the case for a Cloud-native data lake, depending on the feasibility of such a project. If there is sufficient ground for architecting a Cloud-native data lake, he or she of course needs to know how to do it. There are numerous variables to take into account that will eventually make a Cloud-native data lake add value for the organization while avoiding the operational and Governance, Risk and Compliance risks that accompany it.

How then should the business case for a cloud-native data lake take shape? We could probably write a book about this (and maybe will someday), but these are the 5 questions a Cloud Architect needs to consider from a business and operational perspective when planning a Cloud-native data lake:

  1. Is there a business oriented problem that can be solved with acquirable data?
  2. Is there sufficient scale in the data sets, is there enough data to justify the required resources?
  3. Does the eventual solution touch the core business?
  4.  Are the right tools available, do business owners and the team understand there needs to be a code base instead of a webportal or GUI?
  5.  Is there a team that knows what to do and can autonomously engineer the data lake, with limited oversight?

Getting these things right will make the difference between a misguided approach and getting the desired results. Those results in turn are highly dependent on the way the data lake is architected.

How a cloud-native data lake can add business value

A useful perspective on architecting a data lake is how the data in the lake should be made available to consumers of this data. Given the fact the data lake holds unstructured data, consumers will have to know which is what, and whether they have access. To see how this would work in practice, it is useful to use an example.

Consider a data lake that holds data sets on mortgages and relevant variables, spanning about two decades. As one can imagine, an institution that is in the business of providing mortgages wants to know how many mortgage holders historically default on them, what the average returns on these mortgages are and will also want to know how mortgage defaults relate to historical interest rates and the historical health of the overall economy in a given country. The data involved has its origin in different data sets, and some of the data is probably privacy sensitive. Also, the data can be sensitive in a competitive sense, justifying tight controls of who has access.

Given the age of the data sets, its highly probable compatibility issues will arise when pushing this data into the data lake. These type of issues can take a lot of time to mitigate, unless an unified data model is issued that is able to assign metadata in a consistent way and making the data available through a publisher-subscriber model. This will also help to control access, and enable teams to discover data without extracting data from the data lake. It is advisable to create an automated workflow which offers a potential subscriber a sample from a data lake, giving him the opportunity to decide whether the data in the lake is useful to him. This workflow will need to automatically provide or deny access based on predefined rules, such as clearances for specific types of data. In this way, the use of this data can be aligned with organizational goals, creating real business value. 

Make a data lake work for you

All in all, the Cloud-native data lake requires a lot of thought, from its conception to its actual use. And even though there is some (contextually justified) skepticism about data lakes, with the right business case and right architecture, innovation can be accelerated with a thoroughly automated data lake.

Cloud Architect of the Year awards 2020

Rob Reus

Cloud Architect of the Year awards 2020

Massive congratulations to Rob Reus, Dennis Vijlbrief and Rene Pingen! They are the well-deserved winners of the respective Cloud Engineer, Cloud Security Architect and Cloud Architect of the year awards. 

Well done and special thanks to our sponsors NetApp, Microsoft, Vamp.io and of course Global Knowledge. 

We will return with a new edition of the Cloud Architect of the Year awards next year!

 

Rob Reus

Cloud Engineer of the Year 2020

Rob Reus

Dennis Vijlbrief

Cloud Security Architect of the Year 2020

Dennis Vijlbrief

René Pingen

Cloud Architect of the Year 2020

René Pingen

How to avoid getting stuck in a data swamp

How to avoid getting stuck in a data swamp

In the run up to the much anticipated Cloud Architect Alliance diner and award show on January 30th, our speakers give a sneak peak into what they have to say that night. Data Solution Architect René Bremer and Senior Cloud Solution Architect Sarath Sasidharan, both currently at Microsoft, share their take on architecting secure data lakes that add business value.

The challenge of scattered data

Many enterprises are considering setting up an enterprise data lake. They want (and often need) to get more business value out of the data that is available within the organization. But even though the potential value of data is recognized, actually using data in this way can be a challenge.

According to René Bremer and Sarath Sasidharan, enterprises need to centralize data first before they can use it to create business value. “Large enterprises face a problem when data needs to be accessible to different teams, departments and offices.” Bremer says. “The last thing you want is teams exchanging data bilaterally, as this data will be ‘marginalized’ and most likely is not accessible to the rest of the organization. It’s difficult to control data that does not have a single source that is used by the whole organization. Centralizing data therefore is the first step to creating a data lake that adds business value.”

Controlling accessible and useful data in a data lake

Centralizing data is a first step, but it certainly should not be the only one. For data in a data lake to become useful, it should be clear who owns it and who is allowed to access it. A pub-sub service should be in place to ensure asynchronous use of data. “Both metadata and a clearly defined pub-sub paradigm are key to creating a functional data lake” Sasidharan explains. “Any data that is put into a data lake needs to be stored according to a proper methodology, with proper metadata and scheming validation for pub-sub to work as it is intended to.”

Adding metadata may seem a fairly straightforward affair, but when terabytes or petabytes of data are involved, a strict policy for assigning metadata fields and labels makes the difference between a functional data lake and a dysfunctional data swamp, Bremer says. “You need to think long and hard about the way metadata is added to data. Business metadata, technical metadata and operational metadata need to be compulsory additions to data that is put in a data lake. Without them, it will be difficult to determine the source and value of data. And even worse, it will be difficult to have tools use the data at all. Ideally, metadata can be interpreted by a variety of tools, for example Bricks or Sequel.” 

And that’s not all, according to Sasidharan. “You will also need to think about the data lake from the consumer’s perspective. You need to adhere to certain standards for API’s, streaming and other ways data in a data lake can be published. It should be easy for a data consumer to access the desired data while at the same time controls should be in place to ensure only authorized users can access certain data for a predefined period of time. A single pane of glass to manage consumption of data in a data lake is indispensable to a secure and efficient enterprise data lake.”

Learnings from real customer cases

To eliminate data siloes between application and business departments, Microsoft has created an open source data model (called Common Data Model) in collaboration with SAP and Adobe. During the upcoming Cloud Architect Alliance event on January 30th, Bremer and Sasidharan will discuss two customer cases and will elaborate on pub-sub flows, metadata and the Common Data Model, and general principles that need to be considered when implementing a data lake. To get guests started, they will even share some generic patterns on metadata and pub-sub. Make sure you don’t miss out and claim your free ticket right now! Don’t wait too long, there’s only a few spots left.

The sense and nonsense of cloud-native data lakes

The sense and nonsense of cloud-native data lakes

In the run up to the much anticipated Cloud Architect Alliance diner and award show on January 30th, our speakers give a sneak peak into what they have to say that night. First up is Maurits van der Drift, mission critical cloud engineer at Schuberg Philis. Van der Drift will talk about the sense and nonsense of cloud-native data lakes and how data can help to enhance business models.

Nothing more than a database?

Gone are the days when tens or hundreds of on premises or colocated servers were clustered with Hadoop to store and process unstructured data. Cloud-native data lakes offer a far more flexible way to create and maintain databases without the need to manage the physical hardware. Another major advantage is that cloud-native data lakes are not bound to a specific location, which makes planning and executing migrations (from data center to data center, for example), a thing of the past. Even though a cloud-native data lake may in its core function like a data warehouse or data base, its cloud-native nature offers far more possibilities.

“One might think the term ‘cloud-native’ is just marketing lingo for what is essentially a database”, Van der Drift says. “And even though that would be a legitimate take on the cloud-native data lake from a purely conceptual point of view, recent technological developments have really changed how data can be leveraged to add business value. The cloud is indispensable in this sense, because it offers an efficient, tailor made solution for data analysis and value extraction.”

Know what to look for before you take a dive

That being said, the promise of data lakes has not yet been fulfilled, Van der Drift observes. “When the idea of data lakes started to become more popular, there seemed to be no limit to the business value unstructured data could generate. Combined with AI and machine learning, many organizations were told they were sitting on massive amounts of useful data and they needed to tap into this new possible revenue stream. The truth is however that in many cases, the unstructured data organizations have is tough to leverage from a business perspective. In addition, even if value can be extracted from unstructured data, it can only be successfully leveraged if you know what you are looking for. In other words: you need to have made the business case for a cloud-native data lake before you actually start creating one.”

Even though Van der Drift has some reservations when it comes to ‘the promises of Big Data’, he notes there are many ways to create business value with data lakes. And it has become easier to do so. ‘A major advantage of cloud-native data lakes is the razor-sharp efficiency they bring. You don’t have to invest in hardware anymore, you don’t have to keep developers on your payroll to maintain your clusters and you only pay for what you use. Infrastructure costs for cloud-native solutions usually are only 10% of the total costs of a project. This means that a small increase in efficiency can rationalize a large increase in infrastructure costs. Needless to say, the threshold to use data analysis is lowered, but it remains important to know why you want to set up a cloud-native data lake and what the desired results are.”

Claim your free ticket for our upcoming event

Do you want to see Maurits explain when and how a cloud-native data lake can add business value? And would you like to enjoy the company of your peers and a free three course dinner while doing so? Join us January 30th 2020 during our next event: ‘How to build a cloud-native data lake & annual Election Night’. During this diner show, you will learn everything there is to know about cloud-native data lakes and can also enjoy the annual Cloud Architect of the Year election. There number of available tickets is limited so make sure to claim yours right now!

How to become Cloud Architect of the year

How to become Cloud Architect of the year

With just over two months to go, the Cloud Architect of the Year election is quickly approaching. Cloud Architects in the Netherlands (and beyond) are anticipating the award show on January 30th 2020 with a mix of enthusiasm and anxiousness. Will peers recognize the monumental achievements some have fought so hard to realize? Will the jury notice how the cloud journey of ACME Inc. was secured by an ingenuous and novel take on cloud security? And what about the Cloud Engineers that have to deal with the nitty gritty of everyday cloud implementations?

This year, we’ve chosen to open up nominations for three categories: the Cloud Architect, Cloud Engineer and the Cloud Security Architect. Below, we will briefly discuss which characteristics are important to get nominated and maybe even win.

The Cloud Architect

As we described in our booklet ‘The high performing Cloud Architect’, a truly effective Cloud Architect has a vast array of knowledge on topics ranging from legal requirements to stakeholder management and business needs. He or she combines this knowledge with a thorough familiarity with different cloud technologies. The successful Cloud Architect always aims to realize an well-oiled machine of human interaction and cloud technologies that propels a business forward.

Cloud Engineer

For the first time in this elections’ history, we’ve included the category of Cloud Engineer. Even though the role differs from that of a Cloud Architect and in fact can be broken into multiple roles, the Cloud Engineer is important for the success of any cloud migration. He or she may be acting as cloud software engineer, cloud security engineer, cloud systems engineer or DevOps engineer. For this election, we are looking for the individual who excelled in his or her role as cloud engineer and had a large impact on the Cloud project he or she was involved in.

Cloud Security Architect

Last but not least, the final category is that of the Cloud Security Architect. As anyone who has been involved in Cloud adoption projects will know, business owners, compliancy and others tend to worry about Cloud security a lot. The Cloud security Architect is indispensable in allaying these fears with tried and true technologies and intelligent designs. The Cloud Security Architect of 2020 is the one who is on top of all security concerns related to Cloud and leads and mentors his or her team in applying the appropriate technical controls on cloud.

Nominate your peer!

That’s it! These are the categories in which you can nominate your peers. Hopefully we’ve shed some light on the criteria and characteristics that are important to win. Nominate your peers now and don’t forget to claim your free ticket for the election night (and deep dive on cloud-native data lakes) if you have not done so already. See you there!

On the secrets of stakeholder management

Stakeholder management is really important for any Cloud transition to succeed. Most Cloud adoption trajectories that fail do so because stakeholders have not been engaged properly. Whether its prior, during or after the transition: a lack of commitment from organizational leadership and the business will almost certainly result in failure.

Continue reading