En Thinking Machines, nuestro trabajo incluye colaborar con la comunidad de investigación en general. Hoy nos complace compartir que estamos construyendo un equipo de vLLM en @thinkymachines para avanzar en vLLM de código abierto y servir a los modelos de frontera. Si estás interesado, ¡envíame un DM o @barret_zoph! Aquí hay algunos ejemplos de roles / proyectos: * Ingeniero de inferencia distribuida para admitir modelos a gran escala en GPU Blackwell * PyTorch y el ingeniero de optimización de modelos para apoyar y optimizar los últimos modelos OSS * Generalista de MLSys para varios aspectos de vLLM