En Thinking Machines, nuestro trabajo incluye colaborar con la comunidad de investigación más amplia. Hoy estamos emocionados de compartir que estamos formando un equipo de vLLM en @thinkymachines para avanzar en vLLM de código abierto y servir a modelos de frontera. Si estás interesado, ¡por favor envíame un DM o a @barret_zoph! Aquí hay algunos ejemplos de roles / proyectos: * Ingeniero de inferencia distribuida para apoyar modelos a gran escala en GPUs Blackwell * Ingeniero de optimización de PyTorch y modelos para apoyar y optimizar los últimos modelos OSS * Generalista de MLSys para varios aspectos de vLLM