Am 18. Dezember 2025 hat das Beijing Humanoid Robot Innovation Center sein Modell XR-1 als Open Source veröffentlicht. Es ist das erste chinesische Vision-Language-Action-Modell, das nationale Standards für Embodied Intelligence erfüllt. Keine Hardware, kein humanoider Showroboter, sondern Software – das Gehirn für Roboter.
XR-1 gehört zur Klasse der Vision-Language-Action-Modelle. Kurz: VLA. Der Roboter sieht seine Umgebung, versteht einen Befehl in natürlicher Sprache und setzt ihn in eine physische Handlung um.
Das Entscheidende: XR-1 ist nicht das „denkendes Gehirn“, sondern eher das Kleinhirn. Es übersetzt abstrakte Pläne in präzise Bewegungen. Gelenke, Kräfte, Koordination. Ohne so ein System bleibt jede große KI-Idee Theorie.
Das Beijing Humanoid Robot Innovation Center beschreibt sein System bewusst dreiteilig:
| Ebene | Aufgabe | Beispiele |
|---|---|---|
| Gehirn | Verstehen, Planen, Entscheiden | WoW World Model, Pelican-VL |
| Kleinhirn | Motorik, Koordination | XR-1 |
| Körper | Physische Ausführung | Tiantang 2.0, andere Plattformen |
XR-1 sitzt genau in der Mitte. Es nimmt abstrakte Anweisungen und macht daraus konkrete Bewegungsabläufe. Das ist unspektakulär formuliert, aber genau dort scheitern viele Roboter.
Ungewöhnlich ist, was Beijing gleich mitliefert:
| Bestandteil | Zweck |
|---|---|
| XR-1 | Das eigentliche VLA-Modell |
| RoboMIND 2.0 | Trainingsdaten |
| ArtVIP | Hochauflösender Asset-Datensatz |
Viele Open-Source-Projekte geben nur Modellgewichte frei. Hier kommen Daten, Struktur und Tooling gleich mit, was die Einstiegshürde massiv senkt.
Wofür XR-1 optimiert ist
- Greifen und Platzieren
- Schieben, Ziehen, Rotieren
- Koordinierte Zwei-Arm-Bewegungen
Besonders wichtig: Cross-Platform-Fähigkeit. XR-1 läuft nicht nur auf einer eigenen Plattform, sondern auch auf Systemen wie Universal Robots oder Franka Emika.
Ein technisches Detail ist entscheidend: Unified Vision-Motion Codes (UVMC).
Kurz gesagt:
- Visuelle Eingaben werden vereinheitlicht
- Bewegungsdaten normalisiert
- Unterschiede zwischen Robotern abstrahiert
Das löst ein reales Problem. Trainingsdaten aus unterschiedlichen Systemen sind normalerweise kaum kompatibel. UVMC macht sie wiederverwendbar. Ohne so etwas bleibt jedes Modell an seine Hardware gefesselt.
Warum Open Source?
- Einstiegshürden senken
- Daten besser teilen
- Entwicklung beschleunigen
China setzt zunehmend auf offene Robotik-Infrastruktur. Wenn viele Entwickler auf denselben Standards aufbauen, werden diese Standards de facto Industrie-Standard.
XR-1 steht nicht allein:
| Projekt | Firma | Fokus |
|---|---|---|
| MiMo-Embodied | Xiaomi | Fahren + Robotik |
| XR-1 | Beijing Innovation Center | Embodied Intelligence |
Meine Einschätzung
XR-1 ist kein Durchbruch, der morgen Roboter in Wohnzimmer bringt. Aber es ist ein Baustein, den es vor einem Jahr in dieser Form nicht gab. Technisch interessant und strategisch noch interessanter.
China veröffentlicht Robotik-Infrastruktur offen, während westliche Firmen auf geschlossene Systeme setzen. Das kann den Markt spalten oder beschleunigen. Wahrscheinlich beides.
Quellen
- AI Base: Beijing XR-1 Open Source Announcement
- GitHub: Beijing Humanoid Robot Innovation Center
- OpenReview: XR-1 Technical Paper
https://github.com/Open-X-Humanoid/XR-1
