Huidige robotica-modellen benadrukken echt hoe ongelooflijk efficiënt de menselijke hersenen zijn. Robotica-modellen zijn relatief klein (lage miljarden parameters), slaan slechts een seconde context op en doen 100 ms inferentiestappen. In tegenstelling tot de menselijke hersenen, die 100 biljoen synapsen hebben (ongeveer vergelijkbaar met parameters), 24 frames per seconde verwerken, terwijl ze uren aan eerdere context in overweging nemen. Hoe verwachten we dus dat we veel verbeteringen in robotica over al deze dimensies (die tegen elkaar in termen van inferentiecomputing inruilen) tegelijkertijd kunnen bereiken? En hoe leggen we uit wat er in de hersenen gebeurt? Is het meer vergelijkbaar met een softwarevoordeel of een hardwarevoordeel? Volledige aflevering met @svlevine nu beschikbaar!