Remote
Job description
Rejoignez **Tether**, acteur incontournable de la finance digitale, et participez à la conception de la prochaine génération de modèles d’intelligence artificielle à grande échelle. En tant qu’Ingénieur Recherche IA spécialisé dans le pré‑entraînement, vous intégrerez l’équipe **AI Model**, un groupe d’experts passionnés par les modèles de langage de grande taille (LLM) et les architectures de pointe. Vous travaillerez sur des infrastructures distribuées massives, composées de milliers de GPU NVIDIA, afin de pousser les limites du pré‑entraînement, de la curations de données et de l’optimisation des pipelines.
**Missions principales**
- Concevoir, implémenter et itérer sur des architectures LLM innovantes, en tenant compte des contraintes de scalabilité, de coût et de performance.
- Développer des stratégies de pré‑entraînement à grande échelle, incluant le choix des objectifs de formation, le réglage des hyper‑paramètres et la gestion de la parallélisation sur des clusters GPU.
- Curater, nettoyer et enrichir des jeux de données massifs (texte, code, multimédia) en veillant à la qualité, à la diversité et à la conformité éthique.
- Optimiser les pipelines de formation (data loading, mixed‑precision, pipeline parallelism, ZeRO‑optimisation) pour réduire les goulets d’étranglement et améliorer le throughput.
- Mettre en place des outils de monitoring, de profiling et de debugging afin de garantir la stabilité et la reproductibilité des expériences.
- Collaborer étroitement avec les équipes produit, data‑science et infrastructure pour transformer les avancées de recherche en fonctionnalités concrètes pour les clients de Tether.
- Publier des articles scientifiques, brevets ou rapports internes, et représenter l’entreprise lors de conférences et workshops IA.
**Profil recherché**
- Diplôme d’ingénieur, master ou doctorat en informatique, IA, mathématiques appliquées ou domaine connexe.
- Minimum 5 ans d’expérience professionnelle en recherche ou ingénierie IA, avec un focus sur les modèles de langage ou le pré‑entraînement à grande échelle.
- Maîtrise des frameworks de deep learning (PyTorch, TensorFlow) et des bibliothèques de parallélisation (DeepSpeed, Megatron‑LM, FairScale).
- Expérience avérée sur des clusters GPU de plusieurs milliers de cartes, avec une bonne compréhension des architectures NVIDIA (CUDA, cuDNN, Tensor Cores).
- Solides compétences en programmation Python et C++, ainsi qu’en scripting Bash et gestion de conteneurs (Docker, Kubernetes).
- Connaissances approfondies en traitement du langage naturel, optimisation de modèles, et techniques de réduction de biais et de consommation énergétique.
- Capacité à travailler de façon autonome en remote, à gérer plusieurs projets simultanément et à communiquer clairement les résultats à des interlocuteurs techniques et non‑techniques.
**Ce que nous offrons**
- Un poste 100 % remote avec une flexibilité horaire adaptée aux fuseaux horaires globaux.
- Accès à une infrastructure de pointe (clusters GPU, stockage haute‑performance, outils de monitoring avancés).
- Un environnement de travail stimulant, où l’innovation et la recherche sont au cœur de la stratégie.
- Programme de formation continue, budget dédié aux conférences, publications et certifications.
- Rémunération compétitive, bonus basés sur les performances et participation au capital de l’entreprise.
- Assurance santé internationale, congés payés généreux et politique de bien‑être au travail.
Intégrez une équipe qui façonne l’avenir de la finance digitale grâce à l’IA. Postulez dès maintenant et contribuez à créer des modèles qui repoussent les limites du possible.