В Thinking Machines наша работа включает сотрудничество с более широкой исследовательской сообществом. Сегодня мы рады сообщить, что создаем команду vLLM в @thinkymachines для продвижения открытого vLLM и обслуживания передовых моделей. Если вы заинтересованы, пожалуйста, напишите мне в личные сообщения или @barret_zoph! Вот некоторые примеры ролей / проектов: * Инженер распределенного вывода для поддержки моделей большого масштаба на GPU Blackwell * Инженер по оптимизации PyTorch и моделей для поддержки и оптимизации последних OSS моделей * Общий специалист по MLSys для различных аспектов vLLM