У Thinking Machines наша робота включає співпрацю з більш широкою дослідницькою спільнотою. Сьогодні ми раді повідомити, що ми створюємо команду vLLM у @thinkymachines для просування vLLM з відкритим вихідним кодом і обслуговування моделей frontier. Якщо ви зацікавлені, будь ласка, напишіть мені або @barret_zoph! Ось кілька прикладів ролей / проектів: * Інженер з розподіленим висновком для підтримки великомасштабних моделей на графічних процесорах Blackwell * PyTorch та інженер з оптимізації моделей для підтримки та оптимізації останніх моделей OSS * Спеціаліст широкого профілю MLSys з різних аспектів vLLM