Avis de recrutement : CERN recrute un Ingénieur Big Data basé à Genève en Suisse.

 

 

 

 

Description de l’entreprise

Au CERN, l’Organisation européenne pour la recherche nucléaire, des physiciens et des ingénieurs sondent la structure fondamentale de l’univers. À l’aide des instruments scientifiques les plus grands et les plus complexes au monde, ils étudient les constituants de base de la matière – des particules fondamentales qui sont amenées à entrer en collision à une vitesse proche de la vitesse de la lumière. Le processus donne aux physiciens des indices sur la façon dont les particules interagissent et donne un aperçu des lois fondamentales de la nature. En savoir plus sur http://home.cern.

Description de l’emploi

Introduction

Êtes-vous un ingénieur DevOps expérimenté prêt à jouer un rôle actif dans le support des services de stockage de données informatiques utilisés par l’ensemble de la communauté du CERN ? Alors rejoignez notre équipe et participez à l’une des expériences scientifiques les plus incroyables au monde !

Vous rejoindrez une équipe du groupe CERN IT Database and Analytics (DA) chargé de fournir des services de stockage de données aux utilisateurs du CERN. Vous travaillerez avec plusieurs outils open source à grande échelle (OpenSearch, Hadoop, HDFS, HBase) ainsi qu’avec des solutions de stockage d’entreprise (NetApp).

Plus d’informations ici :

Les fonctions

En tant qu’ingénieur Big Data, vous serez responsable de l’exploitation des clusters Hadoop et de la planification de l’évolution du service. Vos activités principales consisteront à :

  • Exploitez plusieurs clusters Hadoop à grande échelle : y compris HDFS, YARN et HBase.
  • Surveillez et gérez les performances, la capacité, la disponibilité et la sécurité des clusters.
  • Planifiez et exécutez les mises à niveau logicielles et matérielles des clusters Hadoop.
  • Résoudre les problèmes liés aux clusters Hadoop, conseil aux utilisateurs finaux.
  • Rechercher et évaluer de nouvelles technologies et outils Big Data.
  • Fournir un mentorat technique et une formation aux pairs et partager l’expertise technique et du domaine.

Qualifications

Maîtrise ou expérience pertinente équivalente dans le domaine du génie logiciel ou informatique ou dans un domaine connexe.

Expérience:

Le candidat retenu devra avoir :

  • Expérience avérée dans l’exploitation et l’optimisation d’environnements de production de données volumineuses à grande échelle.
  • Expérience dans les opérations DevOps, l’administration de systèmes Linux/Unix, la gestion de la configuration et la surveillance.
  • Expérience des relations avec les utilisateurs, de l’assistance aux utilisateurs et de la définition des besoins des utilisateurs.
  • Expérience dans les environnements de gestion de projet agile et la méthodologie scrum en particulier.
  • Expertise des technologies Big Data et du framework Hadoop en particulier.

Compétences techniques :

  • Connaissance des outils de configuration du système : familiarité avec les outils d’automatisation pour la livraison et la gestion de l’infrastructure.
  • Connaissance des techniques et des langages de programmation : script shell uNIX ou programmation Python requise.
  • La connaissance des systèmes d’exploitation : tels que Linux est essentielle et la connaissance de la gestion du stockage d’entreprise (SAN ou NAS) serait un atout.
  • Saisie et analyse des besoins des systèmes TIC : capacité à collecter les besoins des utilisateurs et à gérer les différentes phases d’un projet.

Ce poste sera pourvu dès que possible et les candidatures doivent normalement nous parvenir au plus tard le 3 juillet 2023 à minuit (00h00 CEST) .

Postuler ici