Chez Thinking Machines, notre travail inclut la collaboration avec la communauté de recherche au sens large. Aujourd'hui, nous sommes ravis de partager que nous construisons une équipe vLLM chez @thinkymachines pour faire avancer le vLLM open-source et servir les modèles de pointe. Si vous êtes intéressé, veuillez m'envoyer un message privé ou contacter @barret_zoph ! Voici quelques exemples de rôles / projets : * Ingénieur en inférence distribuée pour soutenir les modèles à grande échelle sur les GPU Blackwell * Ingénieur en optimisation de PyTorch et de modèles pour soutenir et optimiser les derniers modèles OSS * Généraliste MLSys pour divers aspects du vLLM