News

CES 2026: Status quo der humanoiden Robotik und physischen KI

28-01-2026: Zusammenfassung der technologischen Durchbrüche im Bereich der physischen KI und Robotik auf der CES 2026.

Die Fachmesse CES 2026 markiert einen technologischen Übergang, bei dem humanoide Systeme zunehmend die Phase der Laborprototypen verlassen und in die industrielle Anwendung übergehen. Während frühere Iterationen oft durch mangelnde Autonomie und instabile Fortbewegung limitiert waren, zeigt die aktuelle Generation eine signifikante Verbesserung in der Interaktionsfähigkeit, Robustheit und Mobilität.

Industrielle Kommerzialisierung und Pilotprojekte

Ein wesentlicher Trend ist die verstärkte Partnerschaft zwischen Roboterherstellern und Industrieunternehmen zur Skalierung der Fertigungskapazitäten.

  • Skalierung in der Fertigung: Boston Dynamics und die Hyundai Motor Group präsentierten den Atlas 2.0. Geplant ist der Einsatz von rund 30.000 Einheiten in der Automobilfertigung, um monotone Aufgaben wie das Sortieren von Bauteilen zu übernehmen.
  • Erweiterte Bewegungsräume: Der Atlas 2.0 verfügt über eine Konstruktion, bei der Kopf und Rumpf um 360 Grad rotierbar sind. Dies erweitert die funktionalen Einsatzmöglichkeiten über die natürlichen menschlichen Bewegungsgrenzen hinaus.
  • Aktive Testphasen: Figure AI erprobt das Modell Figure 02 bereits im Realbetrieb zur Positionierung von Blechteilen im BMW-Werk Spartanburg.
  • Serienfertigung: Der Hersteller Agibot gab an, bereits mehrere tausend Einheiten für Sektoren wie Logistik und industrielle Fertigung ausgeliefert zu haben. Das Modell A2 demonstrierte zudem mit einem 106 Kilometer langen Marsch eine neue Stufe der energetischen und mechanischen Zuverlässigkeit.

Technologische Grundlagen: Physische KI und Simulation

Der beobachtete Fortschritt basiert maßgeblich auf der Integration leistungsfähiger Simulationsumgebungen und lernfähiger KI-Modelle, die eine Abkehr von der klassischen, starren Programmierung markieren.

  • Foundation Models für Robotik: NVIDIA stellt mit den Cosmos-Modellen und Isaac GROOT eine Architektur bereit, die es Systemen ermöglicht, physische Szenarien zu simulieren und Ganzkörperbewegungen direkt aus Sensordaten (LiDAR, Kamera, Infrarot) abzuleiten.
  • Sim-to-Real Transfer: Durch diese Modelle kann das Verhalten der Roboter erst in virtuellen Umgebungen evaluiert und anschließend robust in die reale Welt übertragen werden. Dies verkürzt die Entwicklungszyklen für neue Aufgaben massiv.
  • Einheitliche Architekturen: Hersteller nutzen zunehmend einheitliche Plattformen, um erlernte Fähigkeiten wie Navigation oder Greifprozesse effizient zwischen verschiedenen Robotertypen (z. B. zwei- und vierbeinigen Modellen) zu übertragen.

Sensorik und Feinmanipulation

Da die bipedale Fortbewegung technisch weitgehend als stabilisiert gilt, verschiebt sich der Forschungsschwerpunkt aktuell auf die haptische Wahrnehmung und die Feinmotorik.

  • Taktile Sensorik: Die SharpaWave-Hand nutzt 22 aktiv angesteuerte Achsen und hochauflösende Drucksensoren an den Fingerspitzen. Dies ermöglicht komplexe Aufgaben wie das Bedienen von Werkzeugen, das Öffnen von Türen oder sogar das Umblättern von Papierseiten.
  • Haptisches Feedback im Training: Systeme wie der Inverse3 von Haply Robotics ermöglichen es menschlichen Trainern, physische Widerstände bei der Teleoperation in Echtzeit zu spüren.
  • Multimodales Imitationslernen: Diese haptischen Daten fließen als zusätzlicher Kanal in das KI-Training ein, um Interaktionen wie das Greifen empfindlicher Objekte näher an reale Bedingungen heranzuführen.

Ausblick: Spezialisierte Assistenzsysteme

Während der industrielle Einsatz bereits konkrete Formen annimmt, bleiben Haushalts- und Serviceroboter zum aktuellen Zeitpunkt weitgehend in der Pilotphase oder sind auf spezialisierte, monotone Tätigkeiten beschränkt.

  • Spezialisierte Automation: Dyna Robotics demonstrierte Systeme für monotone Handarbeit, wie das Falten von Textilien. Durch integrierte KI-Grundmodelle lernen diese Systeme im laufenden Betrieb dazu und optimieren ihre Bewegungsabläufe bei Fehlern selbstständig.
  • Interaktive Systeme: Im Bereich der sozialen Robotik nutzen Hersteller wie Realbotix Large Language Models (LLMs) von Plattformen wie Hugging Face oder OpenAI, um dialogorientierte Anwendungen für Empfangsbereiche zu ermöglichen.
  • Limitierungen: Trotz fortgeschrittener Sprachverarbeitung bleibt die natürliche Mimik und Lippensynchronität bei diesen Systemen eine bestehende technologische Herausforderung.

Fazit unser Projekt FAB-WALK: Die auf der CES 2026 gezeigten Neuheiten bestätigen die wissenschaftlichen Analysen zu industriellen Einsatzpotenzialen: Die Kombination aus haptischer Sensorik, massiv paralleler Simulation und Vision-Language-Action-Modellen bildet die Grundlage für die nächste Stufe der autonomen Robotik. Der Fokus verschiebt sich nun von der reinen Mobilität hin zur präzisen Manipulation in unstrukturierten Umgebungen.