Skills: |
Erfahrung mit mindestens einem dieser ML/DL Tools:
SciKit-Learn
ML Flow
Tensorflow 2.0
Py Torch 1.x
DBs: HBase + Phoenix, Hive, PostgreSQL
Möglichst NLP-Erfahrung (Natural Language Processing) mit Libraries wie Google BERT, Sling, spaCy, GPT-2, Stanford CoreNLP, AllenNLP, OpenEphyra, DELPH-IN PET Parser, Enju, Grammix
Erfahrung mit möglichst vielen dieser neuronalen Konzepte: (De-)Convolution, [Min/Max/Average] (Un)Pooling, Activation Functions, SELU, ELU, ReLU,, Self-Attention, Multi-Head-Attention, LSTM, GRU, NAC (Neural Accumulator), NALU, Squeeze-and-Excitation (SE) / SENet, SPN (Sum-Product Network), VAE, FCLs (Fully Connected Layers), GANs, Capsule Networks, gcForest, Hierarchical Temporal Memory (HTM), Differentiable Programming, ResNet, ResNext, DenseNet, Neural Architecture Search (NAS)
Semi-Supervised Learning und Self-Supervised Learning (SSL)
Umfassende Python oder Scala (oder notfalls Java) Programmiererfahrung
Kenntnis möglichst viele eXplainable AI (XAI) Techniken: Learn to Explain, Anchors, GAM, LRP, LOCO, LIME, SHAP, PDP + ICE plots
Erfahrung in mindestens einem der optionalen Toolsets sowie weiterhin in mindestens einem dieser Toolsets:
Klassisches Data Science: GBM(Gradient Boosting Machine), XGBoost, CatBoost, LightGBM, stacked ensembles, blending, MART (Multiple Additive Regression Trees), Generalized Linear Models (GLM), Distributed Random Forest (DRF), eXtremely Randomized Tree (XRT), Labeling/Labelling, Bootstrap aggregating (bagging), Receiver Operating Characteristic (ROC)/AUC
Wireshark + plugins
Probabilistic reasoning, Bayesche Netzwerke
Erfahrung in der Arbeit in funktionsübergreifenden Abteilungen und Teams
Deutsche oder englische Sprachkenntnisse (fließend)
|