Na Thinking Machines, o nosso trabalho inclui colaborar com a comunidade de pesquisa mais ampla. Hoje estamos entusiasmados em compartilhar que estamos a construir uma equipe de vLLM na @thinkymachines para avançar o vLLM de código aberto e servir modelos de fronteira. Se estiver interessado, envie-me uma mensagem direta ou @barret_zoph! Aqui estão alguns exemplos de funções / projetos: * Engenheiro de inferência distribuída para suportar modelos em larga escala em GPUs Blackwell * Engenheiro de otimização de PyTorch e modelos para suportar e otimizar os mais recentes modelos OSS * Generalista de MLSys para vários aspectos do vLLM