Big Data Engineer
Utrecht

Wat je gaat doen

Jouw dagelijkse taak is om gegevens 24 uur per dag, 7 dagen per week aan het werk te zetten voor de klant en het bedrijf. Als Big Data Engineer werk je samen met je zakelijke gebruikers, data wetenschappers en BI-collega's om oplossingen te ontwerpen en ontwikkelen die nieuwe bruikbare inzichten genereren. Samen met je scrum teamleden werk je aan complexe en uitdagende projecten om databronnen toegankelijk te maken, mobiele en vaste data te integreren en data te presenteren die geschikt zijn voor het beoogde doel.

  • Grootschalige gegevensverwerking met Hadoop-frameworks;
  • Door herbruikbare Python / Scala-code te maken;
  • Door de juiste technologieën te gebruiken die passen bij het beoogde doel;
  • Uw werk documenteren, zodat we uw logica kunnen achterhalen;
  • Helpen bij het verbeteren van bestaande Big Data-oplossingen en -technologie;
  • Werk nauw samen met uw teamleden;
  • Prioriteiten stellen en uw werk plannen;
  • Coachen van ingenieurs die minder ervaren zijn.

Wat wij zoeken

De vaardigheid om informatie-eisen te begrijpen en deze te vertalen naar een technische oplossing. Je legt moeiteloos contacten met collega's en interne klanten en dankzij je communicatieve vaardigheden breng je informatie over en verzamel je waar nodig. Jouw grip op bedrijfsprocessen en pragmatische instelling in een complexe organisatie komen in deze functie goed van pas. En doordat je gewend bent te werken in multidisciplinaire projectteams en onder tijdsdruk staat, blijf je in elke situatie kalm.

  • Een masterdiploma in computerwetenschappen, engineering, datawetenschappen of een ander gerelateerd vakgebied;
  • 3+ jaar programmeerervaring (Python, Scala, enz.);
  • 2+ jaar Big Data-ervaring en diepgaand begrip en toepassing van moderne gegevensverwerking technologieën (Hadoop, Spark, Hive, HBase, Kafka, enz.);
  • Grondige kennis van architecturen en technologieën voor streaming gegevens voor gegevensverwerking in realtime en met lage latentie;
  • Ervaring met data pijplijn- en workflowbeheer tools zoals Oozie of Airflow;
  • Mogelijkheid om de acceptatie van best practices op het gebied van Data Engineering te stimuleren en uw kennis te delen;
  • 1+ jaar ervaring met implementaties en automatiseringstools voor provisioning (Ansible, Docker, CI / CD, Kubernetes, Cloudformation of Helm-grafieken);

Goed om te hebben:

  • Telecom-ervaring;
  • Ervaring in het werken met Data Science-implementaties en blootstelling aan Machine Learning-technieken;
  • Kennis van datawarehouses, technische architecturen en datastructuren;
  • Ervaring in een agile / DevOps-omgeving.

Wat wij jou bieden

  • 6 maanden fulltime;
  • Goede kans op verlenging;
  • Toonaangevende organisatie;
  • Werken in een vooruitstrevende technologische omgeving.
Geinteresseerd?
Contactgegevens
Van Diemenstraat 76
1013CN Amsterdam
Nederland