Data engineer gcp/etl

PKO Bank Polski

  • Warszawa, mazowieckie
  • Stała
  • Pełny etat
  • 13 dni temu
W PKO Banku Polskim dbamy o to, aby każdy dzień w pracy był dla Ciebie dobry.Tworzymy pozytywną atmosferę, doceniamy efektywną współpracę, szanujemy Twój czas prywatny.#ZajmijStanowisko:Data engineer gcp/etlIT(Warszawa)U nas masz na dzień dobry:
  • Umowę o pracę - bo bezpieczeństwo zatrudnienia dla każdego z nas jest superważne.
  • Zdrową równowagę między pracą a życiem osobistym - bo nie samą pracą człowiek żyje.
  • Pełny pakiet benefitów: od kultury, sportu i wypoczynku, po korzystny fundusz emerytalny - bo Ty wiesz najlepiej, na czym Ci zależy.
  • Prywatną opiekę zdrowotną na terenie całej Polski - bo zdrowie jest najważniejsze.
  • Profesjonalne szkolenia - bo liczy się Twój rozwój.
Na co dzień w naszym zespole:
  • budujemy procesy zasilania operacyjnej składnicy danych,
  • projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
  • analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
  • stroimy zapytania SQL na bazie relacyjnych i hurtowianych w on-prem i na Chmurze GCP,
  • tworzymy przepływy off-linowe oraz strumieniowe danych,
  • przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
  • tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
  • usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
  • wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
  • pomagamy przy serwisowaniu wdrożonego oprogramowania,
  • tworzymy rozwiązania ładowania danych w Python,
  • pracujemy zgodnie z modelem DevOps.
To stanowisko może być Twoje, jeśli:
  • posiadasz doświadczenia jako develeoper Data Enegineer:
  • w obszarze procesów integracji danych za pomocą narzędzi ETLowych (Informaitica Power Center),
  • w obszarze technologii GCP (Big Query, Pub-Sub, Google Cloud Anthos, Cloud Storage Buckets,
  • w programowaniu w języku Phyton (znajomość jednego z framework Phyton: Flask, Django),
  • w projektowaniu i tworzeniu relacyjnych baz danych (PostgresSQL, Oracle),
  • pracujesz w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
  • znasz środowisko Linux (doświadczenie w pracy z terminalem, podstawowa znajomość skryptów powłoki bash),
  • znasz narzędzie harmonogramujące: Apache Airflow,
  • masz doświadczenie w pracy z dużymi wolumenami danych ~100TB.
Dodatkowym atutem będzie znajomość:
  • Dash, Streamlit,
  • SqlAlchemy,
  • aplikacji uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne,
  • aplikacji do harmonogramowania zadań ScheduleIN,
  • środowiska SAS,
  • aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
  • narzędzi do monitorwania np. grafana,
  • rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.
Miejsce pracy: Warszawa - praca hybrydowaTo dobry dzień na aplikowanie! #ZajmijStanowisko.Co się stanie po kliknięciu "APLIKUJ"?Jeśli Twoja aplikacja wzbudzi nasze zainteresowanie, rekruter PKO Banku Polskiego zadzwoni do Ciebie, żeby umówić się na rozmowę rekrutacyjną. Do usłyszenia!

Praca.pl

Podobne oferty pracy

  • Data Engineer

    Hays

    • Warszawa, mazowieckie
    Data Engineer lokalizacja: Warszawa (mazowieckie) numer referencyjny: 1186006/jobs.pl Hays IT Contracting to współpraca oparta na zasadach B2B. Nasza firma dopasowuje specjal…
    • 12 dni temu
  • Data engineer

    PKO Bank Polski

    • Warszawa, mazowieckie
    W PKO Banku Polskim dbamy o to, aby każdy dzień w pracy był dla Ciebie dobry. Tworzymy pozytywną atmosferę, doceniamy efektywną współpracę, szanujemy Twój czas prywatny. #Zajmi…
    • 13 dni temu
  • Data Engineer Lead

    Experis

    • Warszawa, mazowieckie
    Oferta pracy na stanowisku Data Engineer Senior. Międzynarodowa firma z obszaru finansów Lokalizacja: Warszawa Śródmieście. Hybryda 50%/50% (biuro/zdalnie) Zadania: Kierowani…
    • 1 miesiąc temu