Close Menu
    Facebook X (Twitter) Instagram Threads
    XONOID
    • Home
    • CES 2026
    • News
    • Roboter
      • Haushalt Roboter
      • Industrie Roboter
      • Forschung & Prototypen-Roboter
    • Embodied AI
    • Mensch & Maschine
    • Wirtschaft & Entwicklung
    • Editorial
    XONOID
    Du bist hierHome»Roboter und Robotik»Haushalt Roboter»Sourccey 24-Stunden-Challenge: Handtuchfaltender Roboter für den ersten Kunden
    Haushalt Roboter

    Sourccey 24-Stunden-Challenge: Handtuchfaltender Roboter für den ersten Kunden

    Steffen WansorSteffen WansorJanuar 28, 20263 Minuten Lesezeit
    Teilen
    Facebook Twitter LinkedIn

    Das Sourccey-Team hat sich eine brutale Challenge gestellt. 24 Stunden Zeit, um einen kompletten Roboter zu bauen und ihn mit KI zu trainieren, ein Handtuch zu falten. Dieser Roboter ist aber nicht für sie selbst, sondern für ihren ersten zahlenden Kunden.

    Der Bauplan unter Zeitdruck

    Die Strategie war klar. Tagsüber den Roboter zusammenbauen, nachts das KI-Modell trainieren lassen. Das Modell braucht etwa zehn Stunden Trainingszeit auf ihren 5090 GPUs, was dem Team theoretisch 14 Stunden für die Hardware lässt. In der Praxis wurde es deutlich knapper.

    Nick verkabelte zuerst die Radmotoren. Ein kritischer Schritt, weil Fehler hier später unter dem gesamten Roboter begraben werden und schwer zu finden sind. Miles und Chris übernahmen parallel die Arme, die nach wie vor der heikelste Teil sind. Jeder Motor muss millimetergenau ausgerichtet werden, kleine Fehler multiplizieren sich durch die Kinematik.

    Probleme, die fast alles verzögert hätten

    Schon früh lief einiges schief. Ein Motor hatte keinen Clip, was bedeutete, dass der komplette Motorhalter auseinandergenommen und ein neuer Motor eingelötet werden musste. Beim Druck des Bizeps-Teils hatten sie versehentlich die falsche Version gewählt, was weitere drei Stunden Druckzeit kostete.

    Dann kam der nächste Schock. Die Kameraleute mussten früher weg als geplant, weil der Verkehr in LA brutal ist. Statt der ursprünglichen 14 Stunden schrumpfte die verfügbare Bauzeit auf etwa acht. Was normalerweise drei Tage dauert, mussten sie jetzt in weniger als einem schaffen.

    Die Infrastruktur dahinter

    Colin baute den Z-Aktuator, quasi die Wirbelsäule des Roboters. Dieser lässt die Arme nach oben und unten fahren, damit der Roboter sowohl Objekte vom Boden als auch von Tischen greifen kann. Das Problem bei dieser Komponente ist, dass alles andere darauf aufbaut. Wenn hier etwas falsch läuft, muss der komplette Roboter wieder auseinander.

    Die Elektrik ist der gefährlichste Teil. Jedes Kabel muss exakt sitzen. Ein Fehler kann jede elektrische Komponente auf dem Board zerstören. Sie verwenden einen 12V 10Ah Lithium-Eisenphosphat-Akku, der sicherer ist als normale Lithium-Ionen-Batterien und länger geladen werden kann. Er ist zwar größer, aber bei einem Roboter spielt das keine Rolle.

    Interessant fand ich die Bemerkung, dass sie das PCB-Design über mehrere Monate selbst entwickelt haben, obwohl keiner von ihnen vorher Erfahrung damit hatte. ChatGPT und Datenblätter waren ihre Lehrer.

    Der Moment der Wahrheit

    Nach hektischen letzten 30 Minuten, in denen Kuppel, Z-Aktuator und Arme dran mussten, war das Chassis fertig. Die Hardware war komplett, mit vier Stunden Puffer bis Mitternacht, als das KI-Training starten musste.

    Ein kurzer Schreckmoment noch: Der Raspberry Pi schien nicht zu funktionieren. Grünes Licht, aber kein Boot. Die Lösung war fast schon komisch, das PCI-Kabel war falsch herum eingesteckt. Das Training lief dann über Nacht. Am nächsten Tag der Test.

    Das Ergebnis

    In unter 24 Stunden von Null zum fertigen, funktionierenden R2-D2 Roboter. Das ist ihre bisher schnellste Zeit. Was vorher zwei Tage für das Chassis brauchte, schafften sie jetzt in einem.

    Weitere Artikel zu Sourccey

    Vorheriger XONOID Artikel: R2-D2 für unter 1.000 Dollar

    Erster XONOID Artikel: Der Open-Source Heimroboter für jedermann

    AI Training DIY Open Source Sourccey
    Teilen. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Vorheriger ArtikelWestwood Robotics zeigt THEMIS Gen2.5: Manipulation und Laufen gleichzeitig
    Nächster Artikel Figure AI Helix 02: Ein neuronales Netz steuert den ganzen Roboter
    Steffen Wansor

      Sci-Fi hat mich früh geprägt. Nicht als Spektakel, sondern als Idee vom Alltag mit Maschinen. Auf XONOID schreibe ich über Heimroboter, KI und die leise Zukunft dazwischen.

      Auch interessant

      Infiforce YUANZI: Der Heimroboter, der dich verstehen will

      Februar 7, 2026

      Fauna Robotics stellt Sprout vor: Der freundliche Humanoid aus NYC

      Januar 28, 2026

      Zeroth will Emotionen verstehen. Chinas nächster Heimroboter heißt Jupiter

      Januar 13, 2026
      Hinterlasse einen Kommentar Cancel Reply

      Nicht verpassen

      LG kündigt Heimroboter „CLOiD“ für CES 2026 an

      NEURA Robotics 4NE1: Der Porsche unter den Humanoiden auf der CES 2026

      Onero H1: Wenn ein Smart-Home-Hersteller Humanoide baut

      Boston Dynamics Weihnachtsvideo 2025: Atlas hebt das Glas

      Aktuelle CES 2026 News
      Haushalt Roboter

      Zeroth will Emotionen verstehen. Chinas nächster Heimroboter heißt Jupiter

      Steffen WansorJanuar 13, 2026

      Es gibt inzwischen dutzende Startups, die Humanoiden für den Haushalt entwickeln. Die meisten fokussieren sich…

      Boston Dynamics Atlas: ‘Best Robot’ der CES 2026 & ein wackeliger Backflip

      Januar 12, 2026

      HMND 01 Alpha auf der CES 2026: Der schnellste Weg zum Industrie-Humanoiden

      Januar 10, 2026

      Sharpa zeigt auf der CES was taktile Sensorik für Roboter bedeutet

      Januar 9, 2026
      Newsletter
      Wöchentliche Updates
      Über XONOID
      Über XONOID

      XONOID ist ein unabhängiger Tech-Blog über Haushalts-, Lifestyle- und Industrierobotik, die Entwicklung von Embodied AI sowie die Schnittstelle zwischen Mensch und Maschine.

      X (Twitter)
      Copyright 2026 XONOID.de
      • Home
      • Kontakt
      • Datenschutzerklärung
      • Impressum
      • Cookie-Richtlinie (EU)

      Suchbegriff eingeben und Enter drücken. Esc drücken um abzubrechen.

      Einwilligung verwalten
      Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Einwilligung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
      Funktional Immer aktiv
      Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
      Präferenzen
      Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
      Statistiken
      Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
      Marketing
      Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
      • Optionen verwalten
      • Dienste verwalten
      • Verwalten von {vendor_count}-Lieferanten
      • Lese mehr über diese Zwecke
      Einstellungen ansehen
      • {title}
      • {title}
      • {title}