Atos

Machine Learning Engineer H/F/X - Les Clayes

Click Here to Apply

Job Location

Les Clayes Sous Bois, France

Job Description



Machine Learning Engineer H/F/X - Les Clayes


Date de publication: 18 oct. 2024


Réf. Non: 509209


Emplacement: Les Clayes-sous-Bois, FR, 78340


Bienvenue chez Eviden, acteur clé du numérique de prochaine génération et leader mondial du cloud, du calcul avancé et de la sécurité !
Eviden opère dans tous les secteurs d’activité, et fait rayonner son expertise sur l’ensemble du continuum numérique.
Nous rejoindre, c’est à la fois une opportunité exaltante de contribuer au futur de la tech et d’agir pour le bien commun, tout en bénéficiant d’un environnement équitable et inclusif, entouré d’experts de haut niveau !
Aujourd’hui, et pour les générations à venir, ouvrons le champ des possibles.
Vous êtes curieux, inventif et audacieux ? Rejoignez la #TeamEviden !



Contexte :



Au sein d'Eviden BDS, la Business Line Advanced Computing est responsable des lignes de produits HPC/AI/Quantum et Business computing.
L'organisation Portfolio & Strategy est responsable des gammes de produits HPC/AI/Quantum, avec des groupes de chefs de produits matériels et logiciels, d'ingénierie produits et performances et de responsables du cycle de vie des produits.




Pour soutenir notre croissance dans le domaine de l'IA et du LLM, nous recherchons un ingénieur en apprentissage automatique - Model Serving (MLEMS) pour concevoir notre pile matérielle et logicielle AI Serving.


Missions :



Le/la MLEMS sera responsable de :




  • Participer à la sélection de partenaires logiciels et d'outils open source pour le service IA, avec un accent initial sur le service LLM sur GPU. Puis extension à d'autres domaines d'IA et au matériel de service d'IA (CPU, autres) ;

  • Intégrer de manière optimale des produits internes, des partenaires logiciels ou des outils open source d'inférence IA, et notamment d'inférence LLM sur nos serveurs matériels. Cela peut inclure, sans s'y limiter, l'écosystème de bibliothèques Huggingface, KServe, Triton, DeepSpeed, OpenLLM, RayServe, VLLM, TGI, ainsi que des solutions axées sur les cas d'utilisation (par exemple, résumé de texte, chatbots de connaissances) ;

  • Concevoir et configurer des logiciels d'inférence optimisés + des piles matérielles pour les LLM pour GPU et CPU, en tenant compte des performances, du prix et de la consommation d'énergie en étroite relation avec l'équipe de benchmark. Pour cela vous aurez accès à notre portefeuille matériel comprenant des technologies Nvidia, AMD et Intel et autres ainsi que des technologies internes innovantes (refroidissement, interconnexions, etc).

  • Lire et appliquer les idées discutées dans les documents de recherche dans ce domaine, en sélectionnant et en testant des partenaires logiciels et matériels appropriés en exploitant ces idées dans leur pile.



Profil :



Qualifications requises:



  • Anglais courant et volonté d'évoluer dans un contexte international ;

  • Expérience pratique dans le déploiement et la surveillance de l'apprentissage automatique (MLOps) avec preuve de réussite de projets dans l'industrie ou le milieu universitaire à l'aide de frameworks tels que PyTorch ou TensorFlow ;

  • Compréhension des transformateurs, LLM ou autres types de modèles de fondation, notamment les modèles open source comme Llama2, Mixtral ou Zephyr.




Qualifications souhaitable :



  • MS. ou un doctorat. en informatique ou dans un domaine connexe ou une vaste expérience professionnelle pertinente ;

  • Expérience dans le déploiement de LLM avec des techniques telles que le parallélisme de modèles, les mécanismes de mise en cache de l'attention, la quantification, le traitement par lots continu, le décodage spéculatif ou la compression ;

  • Expérience dans les frameworks traitant de l'inférence LLM (par exemple, Triton, DeepSpeed, OpenLLM, RayServe, vLLM, TGI, etc.) ;

  • Intérêt démontré pour le suivi et la gouvernance des LLM ;

  • Compétences en matière d'analyse des performances des systèmes et d'analyse comparative.


Le MLEMS relèvera directement du vice-président de l'organisation Portfolio & Solutions et en relation étroite avec les chefs de produits et les parties prenantes R&D.



Lieu de travail : France (les Clayes) de préférence ou France.



I-OM1


Faire partie des pionniers d'Eviden, ça vous dit ?
C'est justement cette audace et cette curiosité qu'on recherche chez nos talents pour grandir ensemble, transformer des possibilités en réalité pour nos clients et façonner le futur de la Tech et de la société.


Chez Eviden, diversité, équité et inclusion sont au cœur de notre politique RH. Nos métiers sont tous ouverts aux personnes en situation de handicap et ce, quelle que soit la nature de celui-ci. Grâce à nos programmes qui soutiennent toutes les diversités, nos collaborateurs et collaboratrices sont pleinement impliqués pour faire vivre cette culture de l’inclusion.




Rejoignez notre communauté !



#LI-FB1




#J-18808-Ljbffr

Location: Les Clayes Sous Bois, FR

Posted Date: 11/27/2024
Click Here to Apply
View More Atos Jobs

Contact Information

Contact Human Resources
Atos

Posted

November 27, 2024
UID: 4934702111

AboutJobs.com does not guarantee the validity or accuracy of the job information posted in this database. It is the job seeker's responsibility to independently review all posting companies, contracts and job offers.