Close Menu
    Facebook X (Twitter) Instagram Threads
    XONOID
    • Home
    • CES 2026
    • News
    • Roboter
      • Haushalt Roboter
      • Industrie Roboter
      • Forschung & Prototypen-Roboter
    • Embodied AI
    • Mensch & Maschine
    • Wirtschaft & Entwicklung
    • Editorial
    XONOID
    Du bist hierHome»Embodied AI»Galaxea macht VLA Open Source: „Pick Up Anything“ ohne Training
    Embodied AI

    Galaxea macht VLA Open Source: „Pick Up Anything“ ohne Training

    Steffen WansorSteffen WansorJanuar 4, 20263 Minuten Lesezeit
    Teilen
    Facebook Twitter LinkedIn

    Galaxea Dynamics hat sein G0Plus VLA-Modell als Open Source veröffentlicht, inklusive einer „Pick Up Anything“-Demo, die ohne spezielles Training funktioniert. Ein Roboter soll Dinge greifen können, die er noch nie zuvor gesehen hat und zwar allein auf Basis einer Sprachaufforderung.

  • GitHub – OpenGalaxea/GalaxeaVLA
  • „Pick up the red cup.“
    Kein Training. Kein Finetuning. Kein Objektprofil.

    Vision-Language-Action, kurz VLA, ist im Kern der Versuch, Robotik aus der Endlosschleife des Nachtrainierens zu befreien. Klassische Systeme funktionieren gut solange sie exakt das tun, wofür sie trainiert wurden. Eine neue Tasse, ein anderes Glas, eine leicht veränderte Umgebung, und das System fällt zurück auf Trial-and-Error.

    We just open-sourced G0 Plus VLA model & launched "Pick Up Anything" demo.
    See our robot perform diverse real-world tasks through pure language. No specialized training needed. That's zero-shot embodied intelligence.#VLA #Robotics #OpenSource
    🔗Try now:https://t.co/Dt6Qq3oVoi pic.twitter.com/D4fZTy5gTT

    — Galaxea Dynamics (@GalaxeaDynamics) January 4, 2026

    Galaxea geht einen anderen Weg. G0Plus kombiniert visuelle Wahrnehmung, natürliche Sprache und motorische Aktionen in einem Modell. Der Roboter bekommt ein Kamerabild, hört eine Anweisung und berechnet daraus direkt eine Handlung. Entscheidend ist dabei der Zero-Shot-Ansatz: Das Modell soll nicht lernen was ein Objekt ist, sondern wie es sich in einer Szene verhält. Das ist der Unterschied zwischen Erkennen und Verstehen

    Kein Paper, sondern ein laufendes System

    Bemerkenswert ist nicht nur das Modell selbst, sondern die Art der Veröffentlichung. Galaxea stellt nicht einfach Gewichte ins Netz, sondern liefert einen direkt einsetzbaren Checkpoint für Greifaufgaben mit. Dazu kommt eine „Pick Up Anything“-Demo, die sich per Docker sofort testen lässt.

    G0Plus_3B_base – ein vortrainiertes Vision-Language-Action-Modell als Basis für eigenes Fine-Tuning

    G0Plus_3B_base-pick_and_place – ein sofort einsetzbarer Checkpoint für Greifaufgaben

    „Pick Up Anything“-Demo – inklusive Dockerfile und Anleitung, um das System direkt auf echter Hardware oder in der Simulation zu testen

    Galaxea bezeichnet den Checkpoint explizit als „deployment-ready“. Das ist eine starke Behauptung, denn viele Robotik-Modelle funktionieren hervorragend im Labor und scheitern im Alltag. Der Unterschied hier ist, dass G0Plus auf echter Hardware trainiert wurde, nicht ausschließlich in der Simulation.

    Die Grundlage für G0Plus ist ein eigener Open-World-Datensatz, den Galaxea bereits im Herbst 2025 veröffentlicht hat. Statt synthetischer Szenen setzt das Team auf reale Umgebungen wie Wohnungen, Küchen, Büros und Einzelhandel. Menschen führen Aufgaben aus, der Roboter beobachtet, Aktionen werden in Sprache zerlegt und annotiert.

    Der Datensatz dahinter

    Grundlage des Modells ist der Galaxea Open-World Dataset, der bereits im September 2025 veröffentlicht wurde.

    • Über 500 Stunden realer Manipulationsdaten
    • Einheitliche Roboterplattform für konsistente Daten
    • Szenarien aus Wohnungen, Küchen, Einzelhandel und Büros
    • Sprachbasierte Subtask-Annotationen
    • Kompatibel mit RLDS und LeRobot

    Autonomes Fahren als Denkmodell

    Dass Galaxea diesen Weg geht, ist kein Zufall. Das Führungsteam kommt aus dem autonomen Fahren, unter anderem von Waymo und Momenta. Dort hat man gelernt, dass Wahrnehmung, Entscheidungsfindung und Aktion nicht getrennt optimiert werden dürfen.

    Galaxea baut diese Brücke bewusst. Das Unternehmen entwickelt nicht nur Modelle, sondern auch eigene Roboterplattformen. Der wheeled Humanoid R1 ist bereits im Einsatz, ein bipedaler Humanoid soll 2026 folgen. G0Plus ist also kein losgelöstes Forschungsprojekt, sondern Teil eines Produkt-Stacks.

    Quelle

    • GitHub – OpenGalaxea/GalaxeaVLA
    • X – @GalaxeaDynamics
    Embodied AI Galaxea Dynamics Humanoide Roboter KI für Roboter Open Source Robotik Pick and Place Robot Manipulation Vision Language Action VLA Zero-Shot Learning
    Teilen. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Vorheriger ArtikelWanda macht Betten: UniX AI zeigt Service-Humanoide auf der CES
    Nächster Artikel Motion 2: Vietnams erster ernstzunehmender Humanoid
    Steffen Wansor

      Sci-Fi hat mich früh geprägt. Nicht als Spektakel, sondern als Idee vom Alltag mit Maschinen. Auf XONOID schreibe ich über Heimroboter, KI und die leise Zukunft dazwischen.

      Auch interessant

      Der erste Roboter im Haushalt wird kein Diener sein

      Februar 17, 2026

      Infiforce YUANZI: Der Heimroboter, der dich verstehen will

      Februar 7, 2026

      LimX Dynamics sammelt $200 Mio. Series B – Und baut den Roboter-Apple

      Februar 3, 2026
      Hinterlasse einen Kommentar Cancel Reply

      Nicht verpassen

      LG kündigt Heimroboter „CLOiD“ für CES 2026 an

      NEURA Robotics 4NE1: Der Porsche unter den Humanoiden auf der CES 2026

      Onero H1: Wenn ein Smart-Home-Hersteller Humanoide baut

      Boston Dynamics Weihnachtsvideo 2025: Atlas hebt das Glas

      Aktuelle CES 2026 News
      Haushalt Roboter

      Zeroth will Emotionen verstehen. Chinas nächster Heimroboter heißt Jupiter

      Steffen WansorJanuar 13, 2026

      Es gibt inzwischen dutzende Startups, die Humanoiden für den Haushalt entwickeln. Die meisten fokussieren sich…

      Boston Dynamics Atlas: ‘Best Robot’ der CES 2026 & ein wackeliger Backflip

      Januar 12, 2026

      HMND 01 Alpha auf der CES 2026: Der schnellste Weg zum Industrie-Humanoiden

      Januar 10, 2026

      Sharpa zeigt auf der CES was taktile Sensorik für Roboter bedeutet

      Januar 9, 2026
      Newsletter
      Wöchentliche Updates
      Über XONOID
      Über XONOID

      XONOID ist ein unabhängiger Tech-Blog über Haushalts-, Lifestyle- und Industrierobotik, die Entwicklung von Embodied AI sowie die Schnittstelle zwischen Mensch und Maschine.

      X (Twitter)
      Copyright 2026 XONOID.de
      • Home
      • Kontakt
      • Datenschutzerklärung
      • Impressum
      • Cookie-Richtlinie (EU)

      Suchbegriff eingeben und Enter drücken. Esc drücken um abzubrechen.

      Einwilligung verwalten
      Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Einwilligung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
      Funktional Immer aktiv
      Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
      Präferenzen
      Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
      Statistiken
      Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
      Marketing
      Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
      • Optionen verwalten
      • Dienste verwalten
      • Verwalten von {vendor_count}-Lieferanten
      • Lese mehr über diese Zwecke
      Einstellungen ansehen
      • {title}
      • {title}
      • {title}