Het Kadaster
Geen max tarief
Gelderland
40 uur p/w
ICT Informatievoorziening
25ste juli, 2025
6de augustus, 2025
In het kort: Je gaat een toekomstbestendig dataplatform ontwikkelen en beheren binnen een scrumteam, waarbij je data pipelines bouwt en optimaliseert, en bijdraagt aan architectuur, beveiliging en AI-toepassingen.
LET OP!! Dit is een detacheringsopdracht met een driepartijenovereenkomst. De inschrijver sluit een driepartijen detacheringsovereenkomst, waarbij de inschrijver als werkgever van de inhuurkracht, de inhuurkracht als betrokkene en het Kadaster als inlener ondertekent. Let wel, de inschrijver en de inhuurkracht dienen hiervoor een (civielrechtelijke) arbeidsovereenkomst te hebben gesloten. Indien dit om welke reden dan ook niet mogelijk is, wordt uw inschrijving terzijde gelegd.
Op deze driepartijenovereenkomst is de Waadi van toepassing. Er zal daarom worden gecontroleerd op de vereiste registratie conform artikel 7a van de Waadi. De startdatum is onder voorbehoud van een tijdige afronding van de offerteprocedure. Dit kan ook betekenen dat de startdatum van de opdracht zal moeten worden opgeschoven. Aan de vermelde startdatum in de offerteaanvraag kunnen zodoende geen rechten worden ontleend. Volgens Kadaster richtlijn dient iedere medewerker minimaal 2 dagen per week op kantoor aanwezig te zijn. Welke dagen dit zijn gaat in overleg met de manager en het team.
Kadaster
Het Kadaster registreert en verstrekt gegevens over de ligging van vastgoed in Nederland en de daarmee samenhangende rechten, zoals eigendom en hypotheek. Als zelfstandig bestuursorgaan is dat onze wettelijke taak. Onze gegevens bieden houvast bij het onderzoeken van maatschappelijke vraagstukken, of het nu gaat om de beste route voor een nieuwe snelweg, actuele ontwikkelingen op de woningmarkt of het in beeld brengen van leegstand.
Opdracht
De organisatie is bezig met de ontwikkeling van een toekomstbestendig dataplatform binnen het DAMA-DMBOK raamwerk en zoekt ondersteuning in de vorm van een ervaren data engineer. De opdracht wordt uitgevoerd binnen een scrumteam, bestaande uit onder meer data engineers en een solution architect. Het omvat het ontwerpen, bouwen en beheren van een schaalbaar, veilig en gebruiksvriendelijk dataplatform. Het platform moet stabiele toegang tot data bieden en aansluiten bij de behoeften van data-analisten, data scientists en andere gebruikers binnen de organisatie. De werkzaamheden richten zich op het ontwikkelen van data pipelines en workflows in onder andere Azure Data Factory en Databricks. Daarnaast wordt verwacht dat je actief meedenkt over en bijdraagt aan schaalbare en onderhoudbare platformcomponenten, en bestaande oplossingen beheert en optimaliseert. Ook het adviseren over verbeteringen op het gebied van architectuur, beveiliging en datagebruik. Bij een toekomstbestendig platform hoor ook AI en machine learning toepassingen hiervoor wordt ook een bijdrage gevraagd. De opdracht vereist een mate van zelfstandigheid en eigenaarschap. Tegelijkertijd wordt verwacht dat je actief meedenkt over toekomstige toepassingen en verbeteringen binnen het platformlandschap.
Belangrijkste technieken, methoden en tools
- Microsoft Azure Cloud
- Databricks / Unity Catalog
- Azure Data Factory
- Kubernetes
- Python / PySpark
- SQL
- Git (Devops / Gitea)
- Terraform scripting
- Medaillon architecture
- ETL / ELT pipelines
- Microsoft Well Architected Framework
- Infrastructure as Code
- Private en public cloud data oplossingen
- Agile werken
- Projectmatig werken
Verantwoordelijkheden
Hier zijn enkele belangrijke verantwoordelijkheden:
- Opzetten, beheren en optimaliseren van het data platform zoals Databricks
- Data pipelines ontwikkelen en onderhouden
- Implementeren van kwaliteit, performance, security en governance standaarden
- Meedenken en integreren van verschillende data technologieën en/of processen
- Samenwerking met andere engineers, analisten, data scientisten en architecten
Taken
- Ontwerp en bouwen aan de hand van Microsoft, Databricks en de Kadaster richtlijnen
- Beheren en optimaliseren van schaalbare en efficiënte data applicatie landschap zoals Databricks en Azure Data Factory
- Bouwen en adviseren over clusterconfiguratie, data pipelines, Delta Lake-strategieën, en ML/AI-workloads
- Opzetten van best practices voor performance, resourcegebruik, kostenoptimalisatie en beveiliging binnen het data platform
- Zorgen voor naadloze integratie met cloudomgevingen zoals Azure
- Koppelingen maken met databases, API’s, data lakes, ETL-pipelines en BI-tools
- Infrastructure as code schrijven zoals Terraform
- Bouwen van CI/CD-processen voor notebooks, jobs en pipelines
- Zorgen voor data governance en naleving van security policies
- Implementeren en evalueren van audit logging en monitoring
- Adviseren en samenwerken met data scientisten en engineers om code of processen efficiënter te maken
- Assisteren bij troubleshooting en probleemoplossing
- Documenteren van oplossingen en best practices
Omdat het proces verloopt via een aanbesteding is het belangrijk dat je een goede kans maakt om de opdracht te winnen. Bij een match starten we het offertetraject, bij twijfel laten we dit binnen 1 werkdag weten.
De procedure verloopt via een aanbesteding. De eerste introductie doen wij daarom op papier.
Wij houden van eerlijk en transparant zaken doen.
Als je aan slag gaat via Bij Oranje hanteren we de
volgende voorwaarden:
Wij houden van eerlijk en transparant zaken doen.
Als je aan de slag gaat via Bij Oranje Detachering dan
hanteren we de volgende voorwaarden: