Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Aktuelle Robotikmodelle verdeutlichen, wie unglaublich effizient das menschliche Gehirn ist.
Robotikmodelle sind relativ klein (niedrige Milliarden von Parametern), speichern nur eine Sekunde Kontext und führen Inferenzschritte in 100 ms durch.
Im Gegensatz dazu hat das menschliche Gehirn 100 Billionen Synapsen (ungefähr analog zu Parametern), verarbeitet 24 Bilder pro Sekunde und berücksichtigt Stunden von vorherigem Kontext.
Wie erwarten wir also, dass wir in all diesen Dimensionen (die sich in Bezug auf die Inferenzberechnung gegenseitig beeinflussen) gleichzeitig viele Größenordnungen an Verbesserungen in der Robotik erzielen?
Und wie erklären wir, was im Gehirn vor sich geht? Ist es eher analog zu einem Softwarevorteil oder einem Hardwarevorteil?
Die gesamte Episode mit @svlevine ist jetzt verfügbar!
82
.@svlevine ist einer der weltweit führenden Robotikforscher (und Mitbegründer von @physical_int).
Er denkt, dass vollständig autonome Roboter viel näher sind, als die Menschen realisieren - als ich ihn nach einer Vorhersage drängte, sagte er 5 Jahre bis zu Robotern, die autonom deinen Haushalt führen können).
Der große Game Changer, seiner Meinung nach, ist, dass wir endlich LLMs mit gesundem Menschenverstand und Vorwissen haben, um die Roboter-Modelle herum zu gestalten.
Wir gehen auf all die Gründe ein, warum dies möglicherweise nicht passiert, das Datenflywheel aus der Bereitstellung, Architektur, Simulation, Fertigung und vieles mehr. Viel Spaß!
0:00:00 – Zeitrahmen für weit verbreitete autonome Roboter
0:22:12 – Warum Robotik schneller skalieren wird als selbstfahrende Autos
0:32:15 – Wie Vision-Sprach-Aktions-Modelle funktionieren
0:50:26 – Verbesserungen, die für eine gehirnähnliche Effizienz erforderlich sind
1:02:48 – Lernen aus Simulation
1:14:08 – Wie sehr werden Roboter den AI-Ausbau beschleunigen?
1:22:54 – Wenn Hardware der Engpass ist, gewinnt China dann automatisch?
149
Ich finde es verrückt, dass die @physical_int Robotermodelle überhaupt funktionieren können, da sie nur eine Kontextlänge von 1 Sekunde haben.
Während der Roboter sich in einem Raum bewegt und einen Tisch reinigt, sieht er nur den aktuellen Zeitstempel der Bilder von den Kameras (plus die Textbeschreibung seiner Aufgabe).
Ich habe @svlevine gefragt, wie dieses Modell überhaupt funktionieren kann. Wenn ein Mensch einen mehrere Minuten langen Plan ausführen müsste, um eine physische Aufgabe zu erledigen, aber ihr Gedächtnis jede Sekunde zurückgesetzt würde, könnte sie das unmöglich schaffen.
Aber irgendwie reicht es aus, nur zu wissen, in welchem Zustand die Welt in diesem Moment ist, um einen einigermaßen komplizierten Plan aufrechtzuerhalten?
Sergeys Antwort bezieht sich auf Morevacs Paradoxon, und ich fand es ziemlich interessant.
Die vollständige Episode kommt morgen heraus!
137
Top
Ranking
Favoriten