Door Thomas Verhoeven ยท 11 mrt 2026 ยท 5 min leestijd
๐Ÿ’ป ICT & Data

CV voorbeeld data engineer (2026)

Op een cv als data engineer telt het volume en de complexiteit van je werk. Hoeveel events verwerkt je pipeline per dag, welke tools (Spark, dbt, Airflow) zet je in, en hoe borg je datakwaliteit? Beschrijf je dataplatformen met schaal en resultaten, niet met "passie voor data".

โœ“ ATS-vriendelijk cv-voorbeeld
๐Ÿ“„ Volledig cv-voorbeeld

Compleet cv als data engineer

Dit cv laat zien hoe je data-pipelines, warehouse-architecturen en datakwaliteitschecks beschrijft met volume, tools en impact.

Milan van den Berg
Data Engineer ยท Python, Spark & Snowflake
๐Ÿ“ Amsterdam๐Ÿ“ง milan@vandenberg.dev๐Ÿ“ฑ 06-45678901LinkedIn: /in/milanvandenberg
Profiel

Data engineer met 5 jaar ervaring in het ontwerpen, bouwen en beheren van schaalbare data-pipelines en data warehouses. Sterk in Python, SQL, Apache Spark en Snowflake. Ervaren met orchestratie (Airflow), datamodellering (dbt) en cloud-dataplatformen (AWS, Azure). Gewend aan samenwerking met data scientists, analisten en productteams in een agile omgeving.

Werkervaring
Data Engineermrt 2023 โ€“ heden
Booking.com โ€” Amsterdam
  • Bouwde real-time datapipeline (Spark Structured Streaming / Kafka) die 2 miljard events per dag verwerkt voor het personalisation-platform.
  • Ontwikkelde dbt-modellen voor het centrale data warehouse in Snowflake, gebruikt door 80+ analisten en data scientists.
  • Reduceerde de runtime van de nachtelijke batch-ETL van 6 uur naar 45 minuten door partitionering en query-optimalisatie.
  • Implementeerde data-quality checks (Great Expectations) waardoor het aantal data-incidenten met 70% daalde.
Junior Data Engineersep 2020 โ€“ feb 2023
ING โ€” Amsterdam
  • Ontwikkelde ETL-pipelines in Python en PySpark voor de migratie van on-premise data naar AWS (S3, Glue, Redshift).
  • Beheerde Airflow-DAGs voor 30+ data-pipelines met dagelijkse, uurlijkse en event-driven schedules.
  • Bouwde data-lineage-tooling waarmee data-eigenaarschap voor 200+ tabellen inzichtelijk werd gemaakt.
Opleiding
MSc Computer Science โ€” Data Engineering track2018 โ€“ 2020
Technische Universiteit Delft
BSc Informatica2015 โ€“ 2018
Universiteit Utrecht
Vaardigheden
Python (PySpark, pandas, SQLAlchemy)SQL (Snowflake, BigQuery, Redshift)Apache Spark / KafkaAirflow / dbtAWS (S3, Glue, Redshift, Lambda)Azure (Data Factory, Synapse)Docker / KubernetesGit / CI-CD (GitHub Actions)
Bijscholing

Databricks Certified Data Engineer Associate (2024) ยท AWS Data Analytics Specialty (2023) ยท Snowflake SnowPro Core (2023)

โœจ Maak het persoonlijk
1๐Ÿ‘คVul je naam en contactgegevens in
2๐Ÿ“Schrijf je eigen profieltekst
3๐Ÿ’ผVoeg je werkervaring toe
4๐ŸŽ“Vermeld je opleiding
5๐Ÿ’กKies je vaardigheden
Maak dit mijn eigen cv โ†“
๐Ÿ“ Profieltekst

Een profiel dat wรฉl werkt

Vermeld in je profiel je kerntoolstack (Python, Spark, Snowflake, dbt), of je batch- of streaming-pipelines bouwt, en de schaal waarop je werkt (events/dag, TB). Sluit af met een concreet resultaat zoals runtime-reductie of verbeterde datakwaliteit.

โœ— Niet doen

Ik ben een gedreven data engineer met een passie voor data. Ik werk graag met de nieuwste technologieรซn en zoek een uitdagende functie waar ik mijn vaardigheden verder kan ontwikkelen.

โœ“ Beter

Data engineer met 5 jaar ervaring in Python, Spark en Snowflake. Bouwde real-time pipeline die 2 miljard events/dag verwerkt. Sterk in dbt, Airflow en AWS-dataplatformen.

Meer tips? Lees onze gids voor het persoonlijk profiel.

๐Ÿ’ก Vaardigheden

Wat werkgevers zoeken bij data engineers

Werkgevers selecteren data engineers op specifieke platformen en het vermogen om op schaal te werken. Beschrijf per tool het datavolume dat je verwerkte en hoeveel analisten of teams afhankelijk zijn van je pipelines.

๐Ÿ

Python & SQL

PySpark, pandas, SQLAlchemy โ€” beschrijf welke libraries je dagelijks gebruikt en voor welk type verwerking.

โšก

Spark & streaming

Apache Spark, Kafka, Flink โ€” benoem het volume dat je verwerkt (events/dag, TB/dag) en of je batch of real-time werkt.

๐Ÿ—๏ธ

Data warehousing

Snowflake, BigQuery, Redshift, Databricks โ€” beschrijf de omvang van het warehouse en hoeveel gebruikers erop vertrouwen.

๐Ÿ”„

Orchestratie & ELT

Airflow, dbt, Dagster, Prefect โ€” benoem hoeveel pipelines je beheert en hoe je datakwaliteit borgt.

โ˜๏ธ

Cloud-dataplatformen

AWS (Glue, S3, Redshift), Azure (Data Factory, Synapse), GCP (Dataflow, BigQuery) โ€” noem specifieke diensten.

โœ…

Data quality & governance

Great Expectations, Monte Carlo, data-lineage โ€” laat zien dat je datakwaliteit proactief bewaakt, niet reactief.

Lees meer over welke vaardigheden je kunt noemen in onze vaardigheden-gids.

๐Ÿ“‹ Werkervaring

Zo beschrijf je werkervaring

Beschrijf per rol welke pipelines je bouwde (batch, streaming, ELT), welke tools je gebruikte en het volume dat je verwerkte. Vermeld de impact op runtime, datakwaliteit of het aantal gebruikers dat op je platform vertrouwt.

Data Engineermrt 2023 โ€“ heden
Booking.com โ€” Amsterdam
  • Bouwde real-time datapipeline (Spark/Kafka) die 2 miljard events per dag verwerkt.
  • Ontwikkelde dbt-modellen voor Snowflake data warehouse, gebruikt door 80+ analisten.
  • Reduceerde batch-ETL runtime van 6 uur naar 45 minuten door query-optimalisatie.
  • Implementeerde data-quality checks (Great Expectations); data-incidenten โˆ’70%.
Junior Data Engineersep 2020 โ€“ feb 2023
ING โ€” Amsterdam
  • Ontwikkelde ETL-pipelines (Python/PySpark) voor migratie naar AWS (S3, Glue, Redshift).
  • Beheerde 30+ Airflow-DAGs met dagelijkse, uurlijkse en event-driven schedules.
  • Bouwde data-lineage-tooling voor eigenaarschap van 200+ tabellen.

Gebruik actieve werkwoorden om je bullets krachtiger te maken.

โœ… Praktische tips

Wel doen en niet doen

โœ“

Kwantificeer het datavolume

"Verwerkt 2 miljard events/dag" of "ETL over 15 TB/nacht" maakt direct duidelijk op welke schaal je werkt.

โœ•

Vermijd "data-pipelines bouwen" zonder context

Elke data engineer bouwt pipelines. Benoem het type (batch/streaming), de tools (Spark, Airflow) en het resultaat.

โœ“

Noem specifieke platformen en versies

"Snowflake, dbt Core 1.7, Airflow 2.8" in plaats van "ervaring met cloud-dataplatformen". Specificiteit overtuigt.

โœ•

Noem jezelf geen data scientist

Data engineering en data science zijn verschillende rollen. Focus op pipelines, datamodellen en infrastructuur โ€” niet op ML-modellen.

โœ“

Benadruk datakwaliteit en observability

Werkgevers zoeken engineers die data-quality frameworks implementeren. Noem Great Expectations, Monte Carlo of eigen checks.

โœ•

Geen verouderde tools benadrukken

Hadoop MapReduce of Informatica zijn prima als achtergrond, maar zet Spark, dbt en cloud-native tools vooraan.

Controleer je cv met onze cv-checklist voordat je solliciteert.

๐Ÿ’ฐ Salarisindicatie

Wat verdien je als data engineer?

Salarisindicatie op basis van cvcoach AI-analyse van 1834+ recente vacatures.

Starter
โ‚ฌ3.500 โ€“ โ‚ฌ4.500
0 โ€“ 2 jaar ervaring
Medior
โ‚ฌ4.500 โ€“ โ‚ฌ6.000
2 โ€“ 5 jaar ervaring
Senior
โ‚ฌ6.000 โ€“ โ‚ฌ7.500
5+ jaar ervaring
โ“ Veelgestelde vragen

FAQ: CV als data engineer

Een data engineer bouwt en onderhoudt de infrastructuur (pipelines, warehouses, platformen) waarmee data beschikbaar wordt gemaakt. Een data-analist gebruikt die data voor analyses en inzichten. Benadruk op je cv de technische kant: ETL/ELT-processen, datamodellering, orchestratie en cloud-infrastructuur.

Databricks Certified Data Engineer, AWS Data Analytics Specialty, Snowflake SnowPro Core en Google Professional Data Engineer worden actief gezocht door werkgevers. Ze bewijzen hands-on ervaring met specifieke platformen en wegen zwaar bij bedrijven als Booking.com, ING en bol.com.

Absoluut. Python en SQL zijn onmisbaar. Noem specifieke libraries (PySpark, pandas, SQLAlchemy) en SQL-dialecten (Snowflake SQL, BigQuery). Scala is een plus als je met Spark werkt. Vermeld ook dbt (SQL-based transformaties) en Airflow (Python-based orchestratie) โ€” die combineren taal en tooling.

Benoem het type pipeline (batch, streaming of ELT), de tools die je gebruikte (Spark, Airflow, dbt) en het datavolume dat je verwerkte. Voeg een meetbaar resultaat toe, zoals runtime-reductie of verbeterde datakwaliteit, zodat werkgevers de schaal en impact van je werk direct begrijpen.

AWS Data Analytics Specialty, Databricks Certified Data Engineer en Google Professional Data Engineer worden het vaakst gevraagd. Kies de certificering die past bij het platform van de werkgever en vermeld het behaalde jaar, zodat recruiters zien dat je kennis actueel is.

Ja, data governance wordt steeds belangrijker. Beschrijf je ervaring met datakwaliteitstools (Great Expectations, Monte Carlo), data-lineage en eigenaarschapsbeleid. Werkgevers zoeken engineers die niet alleen pipelines bouwen, maar ook de betrouwbaarheid en compliance van data waarborgen.

Begin met je data engineer-cv

Vertaal je data-pipelines, warehouse-ontwerpen en datakwaliteitswerk naar een overtuigend cv.

Bouw je data engineer-cv
Vul je pipelines, tools en datavolumes in
Maak je CV โ†’