Close Menu
    Facebook X (Twitter) Instagram Threads
    XONOID
    • Home
    • CES 2026
    • News
    • Roboter
      • Haushalt Roboter
      • Industrie Roboter
      • Forschung & Prototypen-Roboter
    • Embodied AI
    • Mensch & Maschine
    • Wirtschaft & Entwicklung
    • Editorial
    XONOID
    Du bist hierHome»Embodied AI»Beijing XR-1: Chinas erstes VLA-Modell als Open Source
    Embodied AI

    Beijing XR-1: Chinas erstes VLA-Modell als Open Source

    Steffen WansorSteffen WansorDezember 19, 20252 Minuten Lesezeit
    Teilen
    Facebook Twitter LinkedIn

    Am 18. Dezember 2025 hat das Beijing Humanoid Robot Innovation Center sein Modell XR-1 als Open Source veröffentlicht. Es ist das erste chinesische Vision-Language-Action-Modell, das nationale Standards für Embodied Intelligence erfüllt. Keine Hardware, kein humanoider Showroboter, sondern Software – das Gehirn für Roboter.

    XR-1 gehört zur Klasse der Vision-Language-Action-Modelle. Kurz: VLA. Der Roboter sieht seine Umgebung, versteht einen Befehl in natürlicher Sprache und setzt ihn in eine physische Handlung um.

    Das Entscheidende: XR-1 ist nicht das „denkendes Gehirn“, sondern eher das Kleinhirn. Es übersetzt abstrakte Pläne in präzise Bewegungen. Gelenke, Kräfte, Koordination. Ohne so ein System bleibt jede große KI-Idee Theorie.

    Das Beijing Humanoid Robot Innovation Center beschreibt sein System bewusst dreiteilig:

    EbeneAufgabeBeispiele
    GehirnVerstehen, Planen, EntscheidenWoW World Model, Pelican-VL
    KleinhirnMotorik, KoordinationXR-1
    KörperPhysische AusführungTiantang 2.0, andere Plattformen

    XR-1 sitzt genau in der Mitte. Es nimmt abstrakte Anweisungen und macht daraus konkrete Bewegungsabläufe. Das ist unspektakulär formuliert, aber genau dort scheitern viele Roboter.

    Ungewöhnlich ist, was Beijing gleich mitliefert:

    BestandteilZweck
    XR-1Das eigentliche VLA-Modell
    RoboMIND 2.0Trainingsdaten
    ArtVIPHochauflösender Asset-Datensatz

    Viele Open-Source-Projekte geben nur Modellgewichte frei. Hier kommen Daten, Struktur und Tooling gleich mit, was die Einstiegshürde massiv senkt.

    Wofür XR-1 optimiert ist

    • Greifen und Platzieren
    • Schieben, Ziehen, Rotieren
    • Koordinierte Zwei-Arm-Bewegungen

    Besonders wichtig: Cross-Platform-Fähigkeit. XR-1 läuft nicht nur auf einer eigenen Plattform, sondern auch auf Systemen wie Universal Robots oder Franka Emika.

    Ein technisches Detail ist entscheidend: Unified Vision-Motion Codes (UVMC).

    Kurz gesagt:

    • Visuelle Eingaben werden vereinheitlicht
    • Bewegungsdaten normalisiert
    • Unterschiede zwischen Robotern abstrahiert

    Das löst ein reales Problem. Trainingsdaten aus unterschiedlichen Systemen sind normalerweise kaum kompatibel. UVMC macht sie wiederverwendbar. Ohne so etwas bleibt jedes Modell an seine Hardware gefesselt.

    Warum Open Source?

    1. Einstiegshürden senken
    2. Daten besser teilen
    3. Entwicklung beschleunigen

    China setzt zunehmend auf offene Robotik-Infrastruktur. Wenn viele Entwickler auf denselben Standards aufbauen, werden diese Standards de facto Industrie-Standard.

    XR-1 steht nicht allein:

    ProjektFirmaFokus
    MiMo-EmbodiedXiaomiFahren + Robotik
    XR-1Beijing Innovation CenterEmbodied Intelligence

    Meine Einschätzung

    XR-1 ist kein Durchbruch, der morgen Roboter in Wohnzimmer bringt. Aber es ist ein Baustein, den es vor einem Jahr in dieser Form nicht gab. Technisch interessant und strategisch noch interessanter.

    China veröffentlicht Robotik-Infrastruktur offen, während westliche Firmen auf geschlossene Systeme setzen. Das kann den Markt spalten oder beschleunigen. Wahrscheinlich beides.

    Quellen

    • AI Base: Beijing XR-1 Open Source Announcement
    • GitHub: Beijing Humanoid Robot Innovation Center
    • OpenReview: XR-1 Technical Paper

    https://github.com/Open-X-Humanoid/XR-1

     

    Embodied AI Humanoide Roboter Open Source Vision-Language-Action XR-1
    Teilen. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Vorheriger ArtikelLimX TRON 2: Der Roboter, der seine Form ändern kann
    Nächster Artikel Galbot: 300 Millionen Dollar Rekord-Investment in Embodied AI
    Steffen Wansor

      Sci-Fi hat mich früh geprägt. Nicht als Spektakel, sondern als Idee vom Alltag mit Maschinen. Auf XONOID schreibe ich über Heimroboter, KI und die leise Zukunft dazwischen.

      Auch interessant

      Der erste Roboter im Haushalt wird kein Diener sein

      Februar 17, 2026

      Infiforce YUANZI: Der Heimroboter, der dich verstehen will

      Februar 7, 2026

      LimX Dynamics sammelt $200 Mio. Series B – Und baut den Roboter-Apple

      Februar 3, 2026
      Hinterlasse einen Kommentar Cancel Reply

      Nicht verpassen

      LG kündigt Heimroboter „CLOiD“ für CES 2026 an

      NEURA Robotics 4NE1: Der Porsche unter den Humanoiden auf der CES 2026

      Onero H1: Wenn ein Smart-Home-Hersteller Humanoide baut

      Boston Dynamics Weihnachtsvideo 2025: Atlas hebt das Glas

      Aktuelle CES 2026 News
      Haushalt Roboter

      Zeroth will Emotionen verstehen. Chinas nächster Heimroboter heißt Jupiter

      Steffen WansorJanuar 13, 2026

      Es gibt inzwischen dutzende Startups, die Humanoiden für den Haushalt entwickeln. Die meisten fokussieren sich…

      Boston Dynamics Atlas: ‘Best Robot’ der CES 2026 & ein wackeliger Backflip

      Januar 12, 2026

      HMND 01 Alpha auf der CES 2026: Der schnellste Weg zum Industrie-Humanoiden

      Januar 10, 2026

      Sharpa zeigt auf der CES was taktile Sensorik für Roboter bedeutet

      Januar 9, 2026
      Newsletter
      Wöchentliche Updates
      Über XONOID
      Über XONOID

      XONOID ist ein unabhängiger Tech-Blog über Haushalts-, Lifestyle- und Industrierobotik, die Entwicklung von Embodied AI sowie die Schnittstelle zwischen Mensch und Maschine.

      X (Twitter)
      Copyright 2026 XONOID.de
      • Home
      • Kontakt
      • Datenschutzerklärung
      • Impressum
      • Cookie-Richtlinie (EU)

      Suchbegriff eingeben und Enter drücken. Esc drücken um abzubrechen.

      Einwilligung verwalten
      Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Einwilligung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
      Funktional Immer aktiv
      Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
      Präferenzen
      Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
      Statistiken
      Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
      Marketing
      Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
      • Optionen verwalten
      • Dienste verwalten
      • Verwalten von {vendor_count}-Lieferanten
      • Lese mehr über diese Zwecke
      Einstellungen ansehen
      • {title}
      • {title}
      • {title}