Los modelos robóticos actuales realmente subrayan cuán tremendamente eficiente es el cerebro humano. Los modelos robóticos son relativamente pequeños (miles de millones de parámetros), solo almacenan un segundo de contexto y realizan pasos de inferencia de 100 ms. Por el contrario, el cerebro humano tiene 100 billones de sinapsis (aproximadamente análogas a los parámetros), procesa 24 fotogramas por segundo, mientras considera horas de contexto previo. Entonces, ¿cómo esperamos obtener muchas mejoras de orden de magnitud en robótica en todas estas dimensiones (que se intercambian entre sí en términos de cómputo de inferencia) al mismo tiempo? ¿Y cómo explicamos lo que está sucediendo en el cerebro? ¿Es más análogo a una ventaja de software o una ventaja de hardware? ¡Episodio completo con @svlevine ya disponible!