Humanoide Roboter außer Kontrolle
Ex-Sicherheitschef warnt vor tödlicher Gefahr durch Figure AI Roboter

Ein Ex-Sicherheitschef erhebt schwere Vorwürfe gegen das Robotik-Startup Figure AI: Die humanoiden Maschinen des Unternehmens seien nicht nur unzureichend gesichert, sondern könnten laut internen Tests sogar tödliche Verletzungen verursachen. Die Entlassung des Warners mündete nun in einer brisanten Klage – mit möglichen Folgen für die gesamte Branche.

Die Geschichte klingt wie ein Science-Fiction-Thriller – ist jedoch bittere Realität im Silicon Valley: Robert Gruendel, ehemaliger Sicherheitschef von Figure AI, verklagt seinen früheren Arbeitgeber. Der Vorwurf: gravierende Sicherheitslücken bei humanoiden Robotern und eine vermeintlich politisch motivierte Kündigung nach internen Warnungen. Der Fall zeigt, wie schnell Zukunftstechnologie zur realen Gefahr werden kann – für Unternehmen, Investor:innen und die Öffentlichkeit.

Wie gefährlich sind humanoide Roboter wirklich?

Im März 2024 sorgte Figure AI für virale Aufmerksamkeit: Ein Roboter des Modells 01 reichte einem Menschen auf Sprachbefehl einen Apfel – ein Durchbruch, der Medien und Investoren beeindruckte. Was wie ein harmloses Zukunftsszenario wirkte, hatte jedoch eine gefährliche Kehrseite. Robert Gruendel, einst bei Figure AI als Sicherheitschef tätig, warnt nun in einer Klage vor potenziell tödlichen Fehlfunktionen der Maschinen.

In internen Sicherheitstests zeigte sich, dass die Roboter weit mehr Kraft entwickeln können als zunächst angenommen. In einem dokumentierten Fall schlug ein Roboter mit solcher Wucht gegen einen Kühlschrank, dass ein sechs Millimeter tiefer Riss in der Stahltür entstand. Der Schlag habe laut Gruendels Berechnungen doppelt so viel Kraft entfaltet wie nötig, um einen menschlichen Schädel zu zertrümmern. Laut Gruendel wäre die gleiche Energie ausreichend, um auch tragende Knochen zu brechen – mit fatalen Folgen für Menschen im direkten Kontakt. Ein brisantes Szenario – besonders mit Blick auf den geplanten Einsatz im privaten Wohnbereich, etwa als Haushaltshilfe oder Betreuungsassistenz. In Deutschland zeigen Studien bereits eine wachsende emotionale Bindung zwischen Menschen und ihren Haushaltsrobotern, was potenzielle Risiken zusätzlich komplex macht.

Sicherheitskonzept ignoriert, Whistleblower entlassen

Gruendel hatte nach eigenen Angaben ein umfassendes Sicherheitskonzept entwickelt, das sogar potenziellen Investor:innen präsentiert wurde – mit positivem Effekt auf die Kapitalbeschaffung. Der Plan sah unter anderem die Einführung standardisierter Not-Aus-Systeme, automatische Fehlermeldungen sowie regelmäßige Software-Patches zur Risikoanalyse vor. Doch intern sei der Plan später "ausgehöhlt" worden. Trotz anfänglicher Zustimmung durch CEO Brett Adcock und Chefingenieur Kyle Edelberg seien zentrale Maßnahmen gestrichen worden.

Wie t3n berichtet, verfügte das Unternehmen nicht einmal über ein grundlegendes System zur Vorfallsmeldung oder Risikobewertung. Stattdessen soll eine externe Sicherheitsbeauftragte ohne Fachkenntnisse in Robotik eingesetzt worden sein. Für Gruendel war dies nicht nur grob fahrlässig, sondern möglicherweise sogar ein Fall von Investorenbetrug. Besonders kritisch sieht er die Verwendung seines Sicherheitsplans zur Beruhigung und Gewinnung von Investor:innen – obwohl das Unternehmen intern nie die Umsetzung dieser Maßnahmen geplant habe.

Figure AI weist alle Anschuldigungen zurück

Das Unternehmen reagierte auf die Vorwürfe mit einer Gegenklage und erklärt gegenüber CNBC, Gruendel sei "aufgrund mangelnder Leistungen" entlassen worden. Die Anschuldigungen seien "haltlos" und würden juristisch widerlegt. Gleichzeitig betont Figure AI, dass die Sicherheit seiner Roboter "oberste Priorität" habe – eine Aussage, die Gruendel und sein Anwalt jedoch als reine Schutzbehauptung bewerten.

Gruendel sieht sich indes als Whistleblower, der im Sinne der öffentlichen Sicherheit handelt. Laut kalifornischem Recht stehen ihm in dieser Rolle besondere Schutzrechte zu. Der Fall soll daher vor einem Geschworenengericht verhandelt werden. Sein Anwalt, Robert Ottinger, betont: "Das Verfahren soll die offensichtliche Gefahr aufzeigen, die diese überstürzte Markteinführung für die Öffentlichkeit darstellt."

Was bedeutet der Fall für Investoren und Regulierungsbehörden?

Dass ein Unternehmen wie Figure AI potenziell sicherheitsrelevante Risiken ignoriert und gleichzeitig Investoren beruhigt, könnte rechtliche Konsequenzen nach sich ziehen – nicht nur zivilrechtlich, sondern auch aufsichtsrechtlich. In den USA wie in Europa könnten Regulierungsbehörden künftig stärker prüfen, ob Robotik-Startups klare Sicherheitsnachweise erbringen, bevor sie Produkte auf den Markt bringen dürfen. Auch Versicherungen und Aufsichtsbehörden dürften diesen Fall nun intensiv analysieren, um neue Richtlinien zu entwickeln.

Warum der Fall Figure AI die gesamte KI-Industrie betrifft

Die Auseinandersetzung zwischen Gruendel und Figure AI ist mehr als ein Arbeitsrechtsstreit. Sie wirft grundsätzliche Fragen zur ethischen Verantwortung von Tech-Firmen auf – insbesondere beim Einsatz künstlicher Intelligenz in physischen Systemen. Während Unternehmen um Marktanteile und Investorengeld konkurrieren, droht das Thema Sicherheit zum Kollateralschaden des Fortschritts zu werden.

Gerade in Europa, wo die Regulierung von KI und Robotik bereits auf der Agenda steht, dürfte der Fall mit Sorge beobachtet werden. Die Debatte um den Einsatz humanoider Roboter im Alltag – etwa in Pflege, Haushalt oder Bildung – erhält durch diese Enthüllungen eine neue Brisanz. Die EU-Kommission arbeitet derzeit an einem verbindlichen Regelwerk für sogenannte "verantwortungsvolle KI". Die Figure-AI-Klage könnte zum Präzedenzfall für zukünftige Prüfverfahren werden – und zeigt, dass Vertrauen in Technologie nicht naiv, sondern strukturell abgesichert sein muss.

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV