Ein Startup aus San Francisco sammelt 600 Millionen Dollar ein.
Bewertung: 5,6 Milliarden.
Keine Roboter. Keine Hardware. Keine Fabrikvideos.
Physical Intelligence baut Software. Genauer gesagt: das Gehirn, das irgendwann in sehr vielen Robotern stecken soll.
Was macht Physical Intelligence eigentlich?
Die Idee ist schnell erklärt und schwer umzusetzen. Ein universelles KI-Modell für Roboter. So wie GPT oder Gemini für Text funktioniert, soll dieses Modell für physische Aufgaben funktionieren. Unabhängig vom Hersteller, unabhängig vom Roboter, sowie der konkreten Aufgabe.
Physical Intelligence nennt das ein Vision-Language-Action-Model. Der Roboter sieht etwas, versteht Sprache und handelt entsprechend. Nicht als fest programmierte Abfolge, sondern als allgemeines Verständnis von Welt und Bewegung. So soll ein gemeinsames Fundament entstehen, auf dem alle Roboter aufbauen können. Kein eigenes KI-Stack pro Firma mehr. Keine isolierten Lösungen.
Das Geld und die Namen dahinter
600 Millionen Dollar in einer Runde – 5,6 Milliarden Dollar Bewertung.
Investoren sind Alphabet über CapitalG, Jeff Bezos, Index Ventures, T. Rowe Price. Frühere Runden kamen unter anderem von OpenAI, Thrive Capital und Lux Capital. Zufall ist das nicht. Ebenso wenig ist das Spielgeld.
Diese Leute wetten darauf, dass die entscheidende Wertschöpfung bei Robotern nicht in der Hülle steckt, sondern im Modell, das entscheidet, was die Hülle tut.
Warum das für den Markt relevant ist
Aktuell kocht jeder Roboterhersteller seine eigene Suppe.
1X baut Redwood.
Tesla nutzt seinen eigenen FSD-Stack.
Figure arbeitet eng mit OpenAI.
Unitree geht einen anderen Weg.
Das ist langsam, teuer und schlecht skalierbar. Wenn Physical Intelligence recht hat, wird Robotik irgendwann so funktionieren wie Software heute. Hardware ist austauschbar. Das Modell macht den Unterschied.
Kleinere Hersteller könnten plötzlich Zugriff auf KI bekommen, die heute nur den Großen vorbehalten ist. Entwicklung würde schneller voranschreiten und Preise könnten entsprechend fallen. Zumindest wenn man das so optimistisch ließt wie ich.
Die wissenschaftliche Seite
Im Dezember 2025 hat Physical Intelligence ein Paper veröffentlicht: „Emergence of Human to Robot Transfer in Vision-Language-Action Models“.
Die Kernidee ist im Grundegenommen: Wissen, das Menschen besitzen, lässt sich nicht nur erklären, sondern übertragen. Beobachten, verstehen, ausführen. Ohne jeden Handgriff neu zu programmieren. Das klingt abstrakt. Ist aber genau das, was Heimroboter brauchen. Nicht perfekte Bewegungen, sondern gutes Urteilsvermögen.
Meine Einschätzung
5,6 Milliarden Dollar für Software ohne eigenes Produkt ist eine Hausnummer.
Wenn Physical Intelligence funktioniert, verändert das den Markt fundamental. Dann wird KI wichtiger als Mechanik und dann wird Robotik mehr Software-Problem als Hardware-Problem.
Wenn sie scheitern, war es ein sehr teurer Irrtum.
Ich bin vorsichtig optimistisch. Nicht wegen der Präsentationen, sondern wegen der Investoren. OpenAI und Bezos investieren nicht aus Langeweile. Aber sie liegen auch nicht immer richtig.
Entscheidend wird sein, ob diese Modelle außerhalb von Demos bestehen. Ich rede hier von echten Küchen und chaotischen Wohnungen. Mit unklaren Anweisungen…Da trennt sich Vision von Realität.
