Na Thinking Machines, nosso trabalho inclui a colaboração com a comunidade de pesquisa mais ampla. Hoje, temos o prazer de compartilhar que estamos construindo uma equipe de vLLM na @thinkymachines para promover o vLLM de código aberto e atender a modelos de fronteira. Se você estiver interessado, por favor, me mande uma DM ou @barret_zoph! Aqui estão alguns exemplos de funções/projetos: * Engenheiro de inferência distribuída para suportar modelos em larga escala em GPUs Blackwell * PyTorch e engenheiro de otimização de modelos para suportar e otimizar os modelos OSS mais recentes * MLSys generalista para vários aspectos do vLLM