Nr ref.: LP/DEP/ZD/01
Avenga jest światowym ekspertem w obszarze IT i transformacji cyfrowej.
W ramach linii Transforming Industries świadczymy szeroką gamę usług – od doradztwa strategicznego, usług związanych z customer experience, projektowaniem rozwiązań, po tworzenie oprogramowania. W ramach obszaru Avenga IT Professionals oferujemy outsourcing najwyższej klasy specjalistów w trzech modelach współpracy: staff augmentation, team leasing i rekrutacje stałe.
Łączymy kreatywność i innowacyjność z umiejętnością szybkiej realizacji kompleksowych projektów nastawionych na uzyskanie wymiernych korzyści oczekiwanych od dużego dostawcy rozwiązań IT.
Avenga to ponad 2500 profesjonalistów i 20-letnie doświadczenie w realizacji projektów IT.
Jesteśmy obecni w Europie, Azji i USA. W Polsce działamy od 2004 roku (poprzednio pod nazwą IT Kontrakt).
Avenga is a global IT and digital transformation champion. We deliver strategy, customer experience, solution engineering, managed services, software products and outsourcing services like: staff augmentation, team leasing and permanent employment.
Together, we are more than 2500 professionals with over 20 years of experience. We are present in Europe, Asia and the USA.
For the IT centre for our Client we are looking for a passionate Data Engineer Professional who will innovate healthcare by creating innovative software that helps doctors, patients and scientists around the world. If you want to be a part of revolutionizing the healthcare industry, join us to put your software touch on it!
1. 2+ years of working with programming language focused on data pipelines,eg. Python or R
2. 1+ years of experience working on GCP, Cloud (AWS/Azure/Google) or other cloud platform (optional)
3. 1+ years of experience in data pipelines maintenance
4. 1+ years of experience with different types of storage (filesystem, relation, MPP, NoSQL) and working with
various kinds of data (structured, unstructured, metrics, logs, etc.)
5. 1+ years of experience in working in data architecture concepts (in any of following areas data modeling,
metadata mng., workflow management, ETL/ELT, real-time streaming, data quality, distributed systems)
6. 2+ years of experience working with SQL
7. Exposure to open source and proprietary cloud data pipeline tools such as Airflow, Glue and Dataflow
(optional)
8. Very good knowledge of relational databases (optional)
9. Very good knowledge of Git, Gitflow and DevOps tools (e.g. Docker, Bamboo, Jenkins, Terraform
10. Very good knowledge of Unix
11. Good knowledge of Java and/or Scala