Obecne modele robotyki naprawdę podkreślają, jak niezwykle wydajny jest ludzki mózg. Modele robotyki są stosunkowo małe (niskie miliardy parametrów), przechowują tylko sekundę kontekstu i wykonują kroki wnioskowania w czasie 100 ms. Dla porównania, ludzki mózg ma 100 bilionów synaps (w przybliżeniu analogicznych do parametrów), przetwarza 24 klatki na sekundę, biorąc pod uwagę godziny wcześniejszego kontekstu. Jak więc możemy oczekiwać, że uzyskamy wiele popraw w robotyce w tych wszystkich wymiarach (które wzajemnie się równoważą pod względem obliczeń wnioskowania) jednocześnie? I jak możemy wyjaśnić, co się dzieje w mózgu? Czy bardziej przypomina to przewagę oprogramowania, czy przewagę sprzętową? Pełny odcinek z @svlevine już dostępny!