Ich werde Data-Engineering-Pipelines erstellen

Einige Informationen wurden automatisch übersetzt.

Kroatien

Ich spreche Kroatisch, Englisch, Deutsch

Dateningenieur

Ich habe 3 Jahre Erfahrung im Aufbau skalierbarer Datenlösungen auf GCP und Azure. Ich bin versiert in Python und SQL, mit einem soliden Hintergrund in der Entwicklung von ETL/ELT-Pipelines, dimension...
Über diesen Service
<p suchst du nach einem cloud-basierten Daten-Workflow, um deine Daten effizient zu verschieben und zu transformieren? Ich helfe bei der Einrichtung von Azure/GCP/AWS Data Engineering Services und ETL-Pipelines, um Rohdaten zu erfassen, zu transformieren und in saubere Outputs für Analysen oder die nachgelagerte Nutzung zu strukturieren.


Mit Python, SQL, Spark und cloud-basierten Tools entwerfe ich Workflows, die den Datenfluss automatisieren und gleichzeitig effizient und wartbar bleiben.


Dieses Gig ist ideal, wenn du einen cloud-basierten Workflow starten, deine aktuelle Einrichtung aufräumen oder Datenquellen mit einem strukturierteren Prozess verbinden möchtest, den du in Zukunft leicht skalieren kannst.


Was ich anbiete

  • Cloud-native ETL/ELT Pipelines
  • Integration mit APIs, Datenbanken und Dateien
  • Datenbereinigung und -transformation
  • Medallion-Architektur (Bronze-Silber-Gold)
  • Erweiterte Funktionen: Inkrementelles Refresh, Planung und Benachrichtigungen


Warum mit mir arbeiten

  • Professionelle Data Engineering Erfahrung in Produktionsumgebungen
  • Fokus auf sauberen Code und Wartbarkeit
  • Klare Kommunikation


Hinweis: Bitte sende mir vor der Bestellung eine Nachricht mit deiner Einrichtung, deinem Ziel, den Quelldaten und der erwarteten Ausgabe, damit ich deine Anforderungen besser verstehen und Missverständnisse vermeiden kann.

Expertise:

API-Integration

Automatisierungen

Datenextraktion

etl

Technologie:

Apache-Funken

Azure Data Factory

BigQuery

Python

SQL