Data Engineer @ Scalo

Scalo

  • Gdynia, pomorskie
  • Stała
  • Pełny etat
  • 8 dni temu
Ta oferta jest dla Ciebie, jeśli:
  • posiadasz minimum 3-letnie doświadczenie w pracy jako Data Engineer, w obszarze przetwarzania i integracji danych lub budowy rozwiązań analitycznych,
  • biegle programujesz w Pythonie, zwłaszcza w kontekście analizy i przetwarzania danych (pandas, PySpark),
  • masz praktyczną znajomość SQL i projektowania baz danych,
  • masz doświadczenie w pracy z Apache Spark / PySpark,
  • swobodnie komunikujesz się w języku angielskim (min. B2),
  • wykazujesz się analitycznym myśleniem i chęcią nauki nowych technologii.
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.Cześć!U nas znajdziesz to, czego szukasz - przekonaj się!W Scalo czeka na Ciebie
  • praca w 100% zdalna, z możliwością okazjonalnych wizyt w biurze w Gdyni (szczególnie podczas wdrożenia),
  • stawka: do 150zł/h + VAT.
Co dla Ciebie mamy:
  • długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services),
  • możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence,
  • kafeteryjny system benefitów – Motivizer,
  • prywatną opiekę medyczną – Luxmed.
Brzmi interesująco? Aplikuj – czekamy na Twoje CV! ,[udział w globalnych projektach transformacji cyfrowej w branży przemysłowej i energetycznej,, projektowanie, rozwój i wsparcie rozwiązań opartych o narzędzia analityczne Microsoft Azure (Azure Databricks, Azure SQL, Azure Data Factory, Azure Functions),, tworzenie w pełni zautomatyzowanych potoków przetwarzania danych w środowisku chmurowym,, rozwój i dokumentacja procesów integracji danych, aplikacji wizualizacyjnych oraz zarządzania katalogami danych,, optymalizacja wydajności aplikacji opartych o Apache Spark / PySpark,, analiza i eksploracja zbiorów danych pochodzących z różnych źródeł,, współpraca w międzynarodowym zespole w metodyce Scrum,, możliwość pracy z technologiami takimi jak: Azure Cloud, Python, PySpark, SQL, Apache Spark, YAML, REST API, C#, Microsoft DevOps, Power BI,] Requirements: SQL, Python, pandas, PySpark, Apache Spark Additionally: English lessons, Benefit platform, Private healthcare, International projects, Platforma edukacyjna.

No Fluff Jobs