Skills: |
- Mindestens 1 Jahr Erfahrung mit Big Data Technologien insb. Apache Spark (Scala + PySpark), Hadoop, AWS
- Gute Kenntnisse von AWS Services, insb. EMR, EC2, S3, Lambda
- Sehr gute Kenntnisse mit GIT, Jira, SSH, Confluence
- Sehr gute Kommunikationsfähigkeiten in Deutsch und Englisch
- Sehr gute Erfahrung in agiler Arbeitsweise (Pair Programming, Code Reviews, Arbeiten in Sprints, Dokumentation)
- Sehr gute Teamfähigkeit
- Gute Kenntnisse in Scala, Python (PySpark), SQL
- Gute Erfahrung im Packaging und Deployment (insbes. Spark Jobs)
- Erfahrung im Umgang mit großen Datenmengen, Skalierbarkeit
- Erfahrung in Datenvisualisierung
- Vorteilhaft sind Kenntnisse in Java, R, Jupyter Notebooks, R-Shiny, Geodaten, Umgang mit Datenbanksystemen
- Sicherer Umgang in Linux und Scripting mit Bash und Python, REST Interfaces
- Mehrjährige Berufserfahrung im IT-Bereich |