Postleitzahl: |
Frankfurt am Main |
Start: |
asap |
Laufzeit: |
120 MT |
Beschreibung: |
F |
Skills: |
Notwendig:
- Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse-Bereich
- Mehrjährige Erfahrung mit Komponenten gängiger Hadoop-Distributionen (insb. Spark, Hive, Kafka, HBase), idealerweise mit Zertifizierung
- Umfangreiche Erfahrung in Software-Architektur und -Design
- Fundierte Kenntnisse in objektorientierter und funktionaler Programmierung (z.B. Scala, Java)
- Programmierkenntnisse auf verteilten Architekturen
- Sicherer Umgang mit komplexen Datenstrukturen und Echtzeit-Datenströmen
- Umfangreiche Methodenkenntnisse: UML 2, agile Vorgehensmodelle für Software-Entwicklung, Konfigurations- , Release- und Testmanagement, Versionsverwaltung
- Hands-on-Mentalität und Flexibilität in einem dynamischen Umfeld
Optional:
- Erfahrung mit Prognosemodellen und Qualitätsmonitoring-Systemen
- Kenntnisse statistischer Verfahren oder Machine Learning Methoden für Predictive Analytics
- Programmierkenntnisse im Analytics-Umfeld (z.B. R, Python, SQL)
|
Anzahl: |
1 |