Nuvarande robotmodeller understryker verkligen hur oerhört effektiv den mänskliga hjärnan är. Robotmodeller är relativt små (låga miljarder parametrar), lagrar bara en sekund av kontexten och gör 100 ms inferenssteg. Däremot har den mänskliga hjärnan 100 biljoner synapser (ungefär analoga med parametrar), bearbetar 24 bilder per sekund, samtidigt som man tar hänsyn till timmar av tidigare sammanhang. Så hur förväntar vi oss att få många storleksordningsförbättringar inom robotik i alla dessa dimensioner (som avgörs mot varandra när det gäller inferensberäkning) samtidigt? Och hur förklarar vi vad som händer i hjärnan? Är det mer analogt med en mjukvarufördel eller en hårdvarufördel? Hela avsnittet med @svlevine ute nu!