<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:language="http://purl.org/dc/elements/1.1/language" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>RoboHorizon Robot Magazine - AI you can touch</title><link>https://robohorizon.de/de/</link><description>Ein Kompass in modernen Robotertechnologien für Unternehmen und Privatpersonen mit aktuellen Nachrichten, umfassenden Analysen und Tests.</description><generator>Hugo -- gohugo.io</generator><language>de</language><lastBuildDate>Sat, 14 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://robohorizon.de/de/index.xml" rel="self" type="application/rss+xml"/><item><title>Ex-Googler: Roboter 'Emma' jagt Viren im Weinberg</title><link>https://robohorizon.de/de/news/2026/03/roboter-emma-weinberge-viren/</link><pubDate>Fri, 13 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/roboter-emma-weinberge-viren/</guid><description>Budbreaks Roboter Emma scannt Weinberge per KI auf Krankheiten. Ein Durchbruch für nachhaltige Landwirtschaft und höhere Erträge in 14 Betrieben.</description><content:encoded>&lt;p&gt;Während die Tech-Welt gebannt auf zweibeinige Roboter starrt, die mühsam ihre ersten Pirouetten drehen, rollt in den Weinbergen Amerikas eine leisere, aber weitaus effizientere Revolution an. Jonathan Moon, ein Robotics-Veteran mit &lt;strong&gt;Google&lt;/strong&gt;-Vergangenheit, hat das letzte Jahr damit verbracht, &lt;strong&gt;Emma&lt;/strong&gt; zu perfektionieren. Emma ist kein Erntehelfer im klassischen Sinne – sie ist eine autonome Detektivin auf Rädern, die Krankheiten aufspürt, noch bevor das menschliche Auge auch nur das geringste Symptom erkennt.&lt;/p&gt;
&lt;p&gt;Die Maschine ist das Erstlingswerk von Moons neuem Ag-Tech-Startup &lt;strong&gt;Budbreak&lt;/strong&gt;. Wie Moon in einem aktuellen Post mitteilte, patrouilliert Emma bereits in 14 Weinbergen und Obstplantagen in Kalifornien und New York. Als „KI-Scout“ scannt sie jede einzelne Rebe akribisch nach Anzeichen von Viren und anderen Bedrohungen, während sie ganz nebenbei die Ernteerträge präzise vermisst. Ein ziemlicher Kontrast zu seiner früheren Arbeit bei Google, wo er Roboter für Erdbeerfelder entwickelte. Moon kommentierte den Branchenwechsel gewohnt trocken: „Die Trauben haben mich von den Erdbeeren bekehrt.“&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/jmoonio/status/2031865002295169343"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h4 id="warum-das-ein-echter-game-changer-ist"&gt;Warum das ein echter Game-Changer ist&lt;/h4&gt; &lt;p&gt;Emma ist weit mehr als eine High-Tech-Vogelscheuche; sie ist ein entscheidendes Werkzeug für das sogenannte Precision Farming. Viren und Krankheiten sind für Winzer weltweit eine permanente und kostspielige Bedrohung, die von der Erntemenge bis hin zur finalen Qualität des Weins alles ruinieren können. Durch diese Art der Früherkennung erlaubt Emma den Landwirten, proaktiv einzugreifen. Das rettet nicht nur die Ernte, sondern macht den gesamten Betrieb nachhaltiger.&lt;/p&gt;
&lt;p&gt;Diese Technologie könnte die Landwirtschaft grundlegend umkrempeln. Untersuchungen von Institutionen wie der Cornell University legen nahe, dass fortschrittliches Monitoring per Roboter den Einsatz von Pestiziden um bis zu 90 % reduzieren könnte – ein gewaltiger Sprung für den Umweltschutz. In Zeiten von Fachkräftemangel und explodierenden Kosten wandeln sich autonome Lösungen wie Emma gerade in rasantem Tempo vom futuristischen Gimmick zum unverzichtbaren Standardequipment.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>agrar-robotik</category><category>agtech</category><category>ki</category><category>weinbau</category><category>nachhaltigkeit</category><category>budbreak</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-13-image-beb7a054.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Geely: Erstes chinesisches ADAS erhält EU-Zertifizierung</title><link>https://robohorizon.de/de/news/2026/03/geely-adas-eu-zertifizierung/</link><pubDate>Fri, 13 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/geely-adas-eu-zertifizierung/</guid><description>Geely sichert sich die EU-Zertifizierung für das G-ASD Fahrerassistenzsystem – ein Meilenstein für den Marktstart chinesischer Smart-Cars in Europa.</description><content:encoded>&lt;p&gt;Ein Blick in den Rückspiegel dürfte den europäischen Autobauern derzeit Schweißperlen auf die Stirn treiben: Der chinesische Automobil-Gigant &lt;strong&gt;Geely Holding Group&lt;/strong&gt; hat am Freitag einen echten Coup gelandet. Das hauseigene System für smartes assistiertes Fahren hat die offizielle EU-Zertifizierung erhalten. Damit erfüllt zum ersten Mal ein in China entwickeltes Advanced Driver-Assistance System (ADAS) die strengen regulatorischen Anforderungen der Union.&lt;/p&gt;
&lt;p&gt;Das System, das offiziell unter dem Namen &lt;strong&gt;G-ASD (Geely-Advanced Driving Assistance System)&lt;/strong&gt; firmiert, hat nun grünes Licht von den Behörden. Das bedeutet konkret: Fahrzeuge, die mit dieser Technik ausgestattet sind, können in bestimmten EU-Ländern in den Handel gehen, ohne dass langwierige und kostspielige lokale Nachzertifizierungen nötig sind. Auch wenn Geely noch keine Details dazu verraten hat, welche spezifische Iteration des G-ASD den Testparcours genau bestanden hat, ist dieser Erfolg sowohl ein technischer als auch ein geopolitischer Ritterschlag. Er ebnet den Weg für eine deutlich schnellere Expansion in einen der am härtesten umkämpften Automärkte der Welt.&lt;/p&gt;
&lt;h4 id="warum-das-ein-gamechanger-ist"&gt;Warum das ein Gamechanger ist&lt;/h4&gt; &lt;p&gt;Hier geht es um weit mehr als nur ein weiteres Zertifikat in einem Aktenordner. Geelys Erfolg ist ein unüberhörbares Signal: Chinesische Automobiltechnologie hat ein Niveau bei Raffinesse und Sicherheit erreicht, das selbst die kritischsten Regulierungsbehörden der Welt überzeugt. Jahrelang wurde der ADAS-Sektor fast ausschließlich von westlichen und israelischen Playern dominiert. Doch diese Zertifizierung stößt das Tor nun auch für andere chinesische Schwergewichte wie BYD, NIO oder XPeng weit auf.&lt;/p&gt;
&lt;p&gt;Die Wettbewerbslandschaft wird dadurch fundamental umgepflügt. Es ist der Beweis, dass Chinas Autobauer gelernt haben, sich im Dickicht komplexer internationaler Standards sicher zu bewegen. Die Botschaft von Hangzhou nach Wolfsburg und Stuttgart ist unmissverständlich: Das technologische Wettrüsten hat eine neue Stufe erreicht, und China fährt längst nicht mehr auf der Standspur. Europäische Kunden können sich darauf einstellen, dass schon bald eine neue Welle von feature-reichen und preislich aggressiv kalkulierten Fahrzeugen aus Fernost auf unseren Straßen rollt.&lt;/p&gt;</content:encoded><category>News</category><category>Automobil</category><category>KI</category><category>geely</category><category>adas</category><category>autonomes-fahren</category><category>eu-regulierung</category><category>china</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-13-image-09c408ac.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Renault: 350 kopflose Humanoide ziehen in die Fabrikhallen ein</title><link>https://robohorizon.de/de/news/2026/03/renault-humanoid-roboter-fabrik/</link><pubDate>Fri, 13 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/renault-humanoid-roboter-fabrik/</guid><description>Renault setzt auf 350 Calvin-40-Roboter von Wandercraft, um schwere, repetitive Aufgaben in der Autoproduktion zu automatisieren. Ein Meilenstein der Industrie.</description><content:encoded>&lt;p&gt;Die Anzeichen verdichten sich, dass die Invasion der humanoidem Roboter in den Werkshallen massiv an Fahrt aufnimmt. Der französische Automobilriese &lt;strong&gt;Renault Group&lt;/strong&gt; hat nun Nägel mit Köpfen gemacht und bestätigt, dass in den kommenden 18 Monaten stolze 350 zweibeinige Roboter des heimischen Startups &lt;strong&gt;Wandercraft&lt;/strong&gt; im produktiven Betrieb eingesetzt werden. Renault belässt es jedoch nicht beim bloßen Kauf: Der Konzern hat sich direkt eine Minderheitsbeteiligung an der Robotik-Schmiede gesichert. Den Anfang macht der „kopflose“ Humanoid namens &lt;strong&gt;Calvin-40&lt;/strong&gt;, der im Werk Douai in Nordfrankreich künftig schwere Reifen und andere Bauteile von A nach B wuchten wird.&lt;/p&gt;
&lt;p&gt;Wandercraft, 2012 gegründet, hat sich eigentlich als Weltmarktführer für medizinische Exoskelette einen Namen gemacht, die Menschen mit Querschnittslähmung das Gehen ermöglichen. Nun transferiert das Team dieses geballte Know-how in den Industriesektor. Der Calvin-40 wurde Gerüchten zufolge in nur 40 Tagen entwickelt – möglich war dieser Sprint nur durch über ein Jahrzehnt an Forschung im Bereich der selbstbalancierenden Robotik. Das Design ist dabei radikal funktional: Ein kopfloser Torso auf zwei Beinen, ausgestattet mit modularen Händen, die je nach Bedarf gegen Greifer oder Saugnäpfe getauscht werden können. Dank einer Kombination aus High-End-Vision-Systemen und KI-gestützter Logik agiert der Roboter völlig autonom in Umgebungen, die eigentlich für menschliche Arbeiter konzipiert wurden.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/TheHumanoidHub/status/2032150269199597985"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Die Partnerschaft ist ein klassisches Geben und Nehmen: Renault bietet das perfekte Testfeld unter Realbedingungen sowie industrielle Expertise, um die Produktion bei Wandercraft zu skalieren und die Kosten pro Einheit zu drücken. Im Gegenzug erhält Renault eine Flotte unermüdlicher Helfer, die menschliche Kollegen von „belastenden und unergonomischen Aufgaben“ befreien sollen. Mit dieser Größenordnung setzt Renault ein deutliches Ausrufezeichen: Es handelt sich um eine der bisher größten bestätigten Bestellungen für humanoide Roboter im Automobilsektor – einer Branche, die sich gerade zum ultimativen Härtetest für diese Technologie entwickelt.&lt;/p&gt;
&lt;h4 id="warum-das-ein-gamechanger-ist"&gt;Warum das ein Gamechanger ist&lt;/h4&gt; &lt;p&gt;Während Schwergewichte wie &lt;strong&gt;BMW&lt;/strong&gt;, &lt;strong&gt;Mercedes-Benz&lt;/strong&gt; und &lt;strong&gt;Tesla&lt;/strong&gt; bereits mit Humanoiden von Partnern wie Figure AI oder Apptronik experimentieren, markiert Renaults Rollout von 350 Einheiten eine neue Eskalationsstufe. Hier geht es nicht mehr nur um Pilotprojekte im Labor-Stil, sondern um eine großflächige Integration. Das Signal ist klar: Die wirtschaftlichen und praktischen Argumente für den Einsatz humanoider Roboter in der Fertigung sind mittlerweile so solide, dass sich die Investition lohnt.&lt;/p&gt;
&lt;p&gt;Die Entscheidung für das „kopflose“ Design des Calvin-40 ist zudem ein genialer pragmatischer Schachzug. Form folgt hier strikt der Funktion. Für repetitive Industriejobs ist ein Kopf voller komplexer Sensoren oft nur ein unnötiger Kostenfaktor und eine potenzielle Fehlerquelle. Wandercraft verfolgt eine konsequente Use-Case-Strategie: Sie bauen kein Allzweck-Androiden-Spielzeug, sondern ein spezialisiertes Werkzeug. Dieses Investment validiert nicht nur die Technologie von Wandercraft, sondern positioniert Europa als ernstzunehmenden Player in einem Markt, der bisher fast ausschließlich von US-amerikanischen und asiatischen Firmen dominiert wurde.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>Automobilindustrie</category><category>renault</category><category>wandercraft</category><category>humanoid-robot</category><category>manufacturing</category><category>automation</category><category>calvin-40</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-13-pastedgraphic-1-8cbfd5ed.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Sunday Robotics: 165 Mio. $ für echte Roboter statt PR-Demos</title><link>https://robohorizon.de/de/magazine/2026/03/sunday-robotics-heimroboter-funding/</link><pubDate>Thu, 12 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/magazine/2026/03/sunday-robotics-heimroboter-funding/</guid><description>Dank 165 Millionen Dollar an frischem Kapital verspricht Sunday Robotics: Schluss mit PR-Demos. Dieses Jahr sollen echte Heimroboter einziehen. Wir sind gespannt.</description><content:encoded>&lt;p&gt;Die Robotik-Branche hütet ein schmutziges Geheimnis: Sie lebt von perfekt inszenierten Shows. Seit Jahren werden wir mit Highlight-Videos gefüttert, in denen Roboter Rückwärtssaltos schlagen, Tanzeinlagen liefern oder in sterilen Laborumgebungen filigran Essen anrichten. Das Problem? Die meisten dieser mechanischen Wunderwerke sind in etwa so autonom wie eine Sockenpuppe – und ihre Chancen, jemals in Ihrer unordentlichen, unberechenbaren Küche aufzutauchen, liegen bei fast null. Jetzt betritt ein Startup namens &lt;strong&gt;Sunday Robotics&lt;/strong&gt; die Bühne, bewaffnet mit einem 165 Millionen Dollar schweren Series-B-Scheck und dem Versprechen, das Zeitalter der reinen Demo-Videos endgültig zu beenden.&lt;/p&gt;
&lt;p&gt;Ihre Behauptung ist entweder extrem mutig oder schlichtweg wahnsinnig: Sie wollen noch in diesem Jahr die „weltweit ersten autonomen Heimroboter in Haushalte bringen“. Ja, &lt;em&gt;dieses Jahr&lt;/em&gt;. Unterstützt von Schwergewichten wie &lt;strong&gt;Coatue&lt;/strong&gt;, &lt;strong&gt;Bain Capital Ventures&lt;/strong&gt; und &lt;strong&gt;Tiger Global&lt;/strong&gt;, baut Sunday nicht einfach nur ein weiteres Laborspielzeug. Sie setzen eine neunstellige Summe darauf, dass sie den Code geknackt haben, um Roboter außerhalb von PowerPoint-Präsentationen nützlich zu machen. Die neue Bewertung des Unternehmens von 1,15 Milliarden Dollar deutet darauf hin, dass einige sehr einflussreiche Leute ihnen diese Wette abkaufen.&lt;/p&gt;
&lt;h3 id="die-sackgasse-der-hochglanz-demos"&gt;Die Sackgasse der Hochglanz-Demos&lt;/h3&gt; &lt;p&gt;Wer die Branche länger verfolgt, hat sich eine gesunde Skepsis hart erarbeitet. Der Weg zur Heimrobotik ist gepflastert mit den Überresten ambitionierter Projekte, die auf YouTube fantastisch aussahen, aber beim ersten Kontakt mit der Realität in sich zusammenbrachen. Die größte Hürde war nie allein die Hardware, sondern die Intelligenz. Ein echtes Zuhause ist ein chaotisches Schlachtfeld aus herumliegenden Socken, unberechenbaren Haustieren und Couchtischen, die wie von Geisterhand ihren Platz wechseln. Ein effektiver Heimroboter muss dieses Chaos mit Eleganz meistern, anstatt nur eine vorprogrammierte Routine abzuspulen.&lt;/p&gt;
&lt;p&gt;Genau das macht die Ankündigung von Sunday so provokant. In ihrem Statement sprechen sie eine einfache Wahrheit gelassen aus: „Der Einsatz von autonomer, geschickter Manipulation in echten Haushalten wurde bisher noch nie erreicht.“ Sie benennen das Problem nicht nur – sie behaupten, es gelöst zu haben. Und sie laden die Öffentlichkeit ein, dabei zuzusehen: Im Rahmen einer öffentlichen Beta-Phase wollen sie den gesamten Weg für alle dokumentieren.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/sundayrobotics/status/2032131717402960135"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h3 id="sundays-geheimrezept-keine-marionetten-nur-echtes-training"&gt;Sundays Geheimrezept: Keine Marionetten, nur echtes Training&lt;/h3&gt; &lt;p&gt;Warum glaubt Sunday also, dort Erfolg zu haben, wo so viele andere gescheitert sind? Ihr Ansatz umgeht die Abhängigkeit der Branche von der sogenannten Teleoperation – also dem Verfahren, bei dem Menschen Roboter fernsteuern, um Trainingsdaten zu generieren. Wie wir bereits berichtet haben,
&lt;a href="https://robohorizon.de/de/magazine/2025/12/sunday-ai-hausarbeit-lernen/" hreflang="de"&gt;Sunday AI: Roboter-Puppen übersprungen, Hausarbeit per Hand lehren&lt;/a&gt;
, ist die Methode von Sunday deutlich direkter.&lt;/p&gt;
&lt;p&gt;Das von den Stanford-Absolventen Tony Zhao und Cheng Chi gegründete Unternehmen hat einen speziellen „Skill Capture Glove“ entwickelt. Anstatt Joysticks zu benutzen, tragen menschliche Datensammler diese Handschuhe, während sie Haushaltsaufgaben erledigen. So entsteht ein massiver, hochwertiger Datensatz darüber, wie Dinge in der echten Welt angepackt werden. Diese Daten, gesammelt aus über 500 Haushalten, bilden das Gehirn ihres Roboters namens &lt;strong&gt;Memo&lt;/strong&gt;. Durch die Konzentration auf den gesamten Prozess – vom Hardware-Design über die Datenerfassung bis hin zum Modelltraining – will Sunday eine branchenweit führende Iterationsgeschwindigkeit erreichen.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;„Daten waren schon immer der größte Flaschenhals in der Robotik“, sagt Tony Zhao, CEO von Sunday. „Wir haben die einzige Pipeline aufgebaut, die die Komplexität echter Haushalte im großen Stil in autonome Intelligenz verwandelt.“&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="165-millionen-dollar-als-wette-gegen-das-chaos"&gt;165 Millionen Dollar als Wette gegen das Chaos&lt;/h3&gt; &lt;p&gt;Diese massive Finanzierungsrunde ist mehr als nur ein Vertrauensbeweis; sie ist der Treibstoff für einen unglaublich ambitionierten Zeitplan. Eine Beta-Version eines komplexen, autonomen Roboters innerhalb weniger Monate in echte Haushalte zu bringen, ist ein logistischer und technischer Albtraum. Es ist eine gewaltige Herausforderung in Sachen Sicherheit, Zuverlässigkeit und Erwartungsmanagement.&lt;/p&gt;
&lt;p&gt;Der Roboter Memo wurde genau mit diesen Hürden im Hinterkopf entworfen. Er nutzt eine rollende Basis für maximale Stabilität und vermeidet so die Risiken zweibeiniger Designs, die – seien wir ehrlich – ständig umkippen können. Das Ziel ist kein glitzernder humanoider Show-Roboter, sondern ein praktischer Assistent, der den Geschirrspüler einräumt, Wäsche faltet und Ordnung schafft.&lt;/p&gt;
&lt;p&gt;Die entscheidende Frage bleibt: Kann Sundays datenzentrierter Ansatz wirklich die Kluft zwischen kontrollierter Demo und chaotischem Alltag überbrücken? Die Robotik-Industrie hat schon unzählige Versprechen über das „Zuhause der Zukunft“ abgegeben. Sunday Robotics hat gerade 165 Millionen Dollar eingesammelt und die Uhr für den Beweis öffentlich gestartet. Der Ball liegt bei euch, Sunday. Wir schauen genau hin.&lt;/p&gt;</content:encoded><category>KI</category><category>Robotik</category><category>Industrie</category><category>sunday-robotics</category><category>venture-capital</category><category>home-automation</category><category>series-b</category><category>autonome-roboter</category><media:content url="https://robohorizon.de/images/shared/magazine/2026-03-12-image-54ad014b.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Wachstumsschmerzen: Die Hürden der physischen KI</title><link>https://robohorizon.de/de/news/2026/03/physische-ki-herausforderungen/</link><pubDate>Thu, 12 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/physische-ki-herausforderungen/</guid><description>Von ungenauen Simulatoren bis Hardware-Wildwuchs: Eine neue Analyse zeigt die kritischen Hürden auf, die physische KI in der echten Welt bremsen.</description><content:encoded>&lt;p&gt;Während softwarebasierte KI bereits fleißig Sonette dichtet und medizinische Staatsexamen besteht, kämpft ihr physisches Gegenstück noch immer damit, nicht über die eigene Fußmatte zu stolpern. Ein gewohnt scharfzüngiger und tiefgreifender Beitrag von Diego Prats von &lt;strong&gt;Haptic Labs&lt;/strong&gt; legt nun die unbequemen Wahrheiten und chronischen „Pain Points“ offen, die die Forschung im Bereich der Physical AI plagen. Er erinnert uns daran: Roboter für die echte Welt zu bauen, ist ein verdammt schmutziges, kompliziertes und oft frustrierendes Geschäft.&lt;/p&gt;
&lt;p&gt;Der Kern des Problems, so Prats, ist die tiefe Schlucht zwischen virtuellem Training und physischer Realität. Dieser sogenannte „Simulation-to-Reality“-Gap (oder kurz „Sim2Real“) ist der Endgegner der Robotik. Strategien (Policies), die in einem sterilen, perfekt vorhersehbaren Simulator tadellos funktionieren, kollabieren regelrecht, sobald sie mit dem Chaos der echten Welt konfrontiert werden. Die Diskrepanz rührt daher, dass Simulatoren reale Physik, Sensorrauschen und komplexe Materialeigenschaften nie zu einhundert Prozent abbilden können. Das Resultat? Ein Roboter, der in der Simulation grazil einen Bauklotz greift, fuchtelt in der Realität oft nur orientierungslos in der Luft herum.&lt;/p&gt;
&lt;p&gt;Prats legt den Finger zudem in eine weitere Wunde: die frustrierende mangelnde Standardisierung der Hardware. Da Forschungsteams meist auf Eigenbau-Lösungen setzen, ist es fast unmöglich, Ergebnisse zwischen verschiedenen Laboren zu reproduzieren oder direkt zu vergleichen. Es entsteht ein fragmentiertes Ökosystem, in dem jedes neue Projekt das Rad – oder in diesem Fall den Aktuator und das Sensorset – mühsam neu erfinden muss. Hinzu kommt der massive Flaschenhals bei der Datengewinnung. Während LLMs das gesamte Internet nach Texten abgrasen können, müssen Roboter ihre Erfahrungen durch langsame, teure und oft von Hardware-Defekten begleitete physische Interaktionen sammeln.&lt;/p&gt;
&lt;h4 id="warum-ist-das-wichtig"&gt;Warum ist das wichtig?&lt;/h4&gt; &lt;p&gt;Diese „Pain Points“ sind weit mehr als nur akademisches Gejammer; sie sind die primären Barrieren, die den flächendeckenden Einsatz wirklich autonomer Allzweckroboter verhindern. Den Sim2Real-Gap zu schließen, ist die Grundvoraussetzung, um Roboter sicher und effizient zu trainieren, ohne dabei ständig sündhaft teure Hardware zu schrotten. Würden sich zudem Hardware-Standards etablieren, könnte die Innovation förmlich explodieren – ganz so, wie es standardisierte Software-Bibliotheken für die digitale KI getan haben. Letztlich macht Prats’ Analyse eines klar: Der Weg zu einer wahrhaft fähigen Physical AI führt nicht einfach nur über noch größere Modelle, sondern über die Lösung der schmutzigen, fundamentalen und oft schmerzhaften Probleme beim Kontakt mit der physischen Welt. Wer tiefer in die Materie eintauchen will, findet den vollständigen Artikel im &lt;a href="https://www.hapticlabs.ai/blog/2026/03/06/plenty-of-room-in-physical-ai-research"&gt;Haptic Labs Blog&lt;/a&gt;.&lt;/p&gt;</content:encoded><category>News</category><category>AI</category><category>Robotics</category><category>physical-ai</category><category>robotics-research</category><category>ai-development</category><category>haptic-labs</category><category>simulation</category><category>sim2real</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-12-image-d5128be2.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>ABB &amp; NVIDIA: KI-Gehirne für die Fabrikroboter von morgen</title><link>https://robohorizon.de/de/news/2026/03/abb-nvidia-ki-fabrikroboter/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/abb-nvidia-ki-fabrikroboter/</guid><description>Mit NVIDIA Omniverse erreicht ABB 99 % Präzision in Simulationen. So werden KI-Roboter schneller und effizienter denn je für die Industrie fit gemacht.</description><content:encoded>&lt;p&gt;Der Industrieroboter-Riese &lt;strong&gt;ABB&lt;/strong&gt; macht gemeinsame Sache mit &lt;strong&gt;NVIDIA&lt;/strong&gt;, um seinen Fabrikrobotern eine ordentliche Schippe KI-Power in Sachen Simulation zu verpassen. Die Unternehmen gaben bekannt, dass die NVIDIA Omniverse-Bibliotheken direkt in ABBs RobotStudio-Software integriert werden – eine Plattform, auf die bereits über 60.000 Ingenieure weltweit setzen. Das neue Flaggschiff-Angebot namens &lt;strong&gt;RobotStudio HyperReality&lt;/strong&gt; verspricht, das leidige „Sim-to-Real“-Problem der Branche endgültig zu lösen: mit Simulationen, die eine Präzision von bis zu 99 % erreichen.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/nvidiarobotics/status/2031059151103651850"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Jahrzehntelang war die Programmierung von Industrierobotern ein mühsamer Prozess aus Trial-and-Error – und zwar der richtig teuren Sorte. In der Simulation sah oft alles perfekt aus, doch die Unwägbarkeiten der realen Physik, wechselnde Lichtverhältnisse oder Materialeigenschaften machten den Entwicklern regelmäßig einen Strich durch die Rechnung. Durch die Kombination der virtuellen Robotersteuerungen von ABB mit dem physikalisch basierten Rendering und der KI-Simulation von NVIDIA können Entwickler nun komplette Produktionslinien in einem hyperrealistischen digitalen Zwilling entwerfen, testen und validieren, noch bevor der erste physische Roboter überhaupt ausgepackt wird. Die Zusammenarbeit wird bereits von der &lt;strong&gt;Hon Hai Technology Group (Foxconn)&lt;/strong&gt; für die komplexe Montage von Unterhaltungselektronik und vom Robotik-Startup &lt;strong&gt;Workr&lt;/strong&gt; pilotiert, um Automatisierung auch für kleinere Hersteller zugänglich zu machen.&lt;/p&gt;
&lt;h4 id="warum-ist-das-ein-gamechanger"&gt;Warum ist das ein Gamechanger?&lt;/h4&gt; &lt;p&gt;Diese Partnerschaft markiert einen fundamentalen Paradigmenwechsel: Weg vom klassischen Programmieren, hin zum &lt;em&gt;Trainieren&lt;/em&gt; von Robotern. Anstatt jede Bewegung mühsam von Hand zu codieren, können Hersteller in der Simulation riesige Mengen an synthetischen Daten generieren. Damit lassen sich KI-Modelle füttern, die mit Varianz und Komplexität spielend fertig werden. Laut ABB lassen sich mit diesem Ansatz die Implementierungskosten um bis zu 40 % senken, während die Time-to-Market um satte 50 % beschleunigt wird. Für Branchen von Automotive bis Logistik bedeutet das: Schnellere, flexiblere und intelligentere Automatisierung ist kein theoretisches Konstrukt mehr – sie landet jetzt direkt in der Montagehalle.&lt;/p&gt;</content:encoded><category>News</category><category>KI</category><category>Robotik</category><category>abb</category><category>nvidia</category><category>omniverse</category><category>robotstudio</category><category>industrierobotik</category><category>digitaler-zwilling</category><category>ki</category><category>foxconn</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-11-image-76f0913e.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>ChangingTeks X2: Diese Roboterhand ist beidhändig genial</title><link>https://robohorizon.de/de/news/2026/03/changingtek-x2-roboterhand-beidhaendig/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/changingtek-x2-roboterhand-beidhaendig/</guid><description>Die X2 von ChangingTek Robotics ist eine sehnengesteuerte Hand, die autonom zwischen Links und Rechts wechselt. Ein Gamechanger für die industrielle Automation.</description><content:encoded>&lt;p&gt;Während sich die menschliche Evolution auf zwei unterschiedliche Hände – links und rechts – festgelegt hat, scheinen Robotik-Ingenieure diese biologischen Fesseln längst gesprengt zu haben. &lt;strong&gt;ChangingTek Robotics Technology (Suzhou) Co., Ltd.&lt;/strong&gt; hat kürzlich die &lt;strong&gt;X2 Left-Right Dexterous Hand (LRD Hand)&lt;/strong&gt; enthüllt – einen bemerkenswerten Endeffektor, dessen Finger sich in beide Richtungen biegen lassen. Das Ergebnis? Eine Hand, die effektiv über zwei Handflächen verfügt.&lt;/p&gt;
&lt;p&gt;Dieses Design erlaubt es der Hand, je nach Aufgabe autonom zwischen einer links- und rechtshändigen Konfiguration zu wechseln. Es ist ein Akt biomechanischer Häresie, der Automatisierungslinien künftig deutlich effizienter machen könnte.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/cyberrobooo/status/2031738667107336560"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Bevor man das Ganze als gruseligen Partytrick abtut: Die X2 steckt voller beeindruckender Leistungsdaten. Laut Hersteller wird die Hand über ein Seilzugsystem (Tendon-driven) gesteuert, was eine rasante Gelenkgeschwindigkeit von 230° pro Sekunde ermöglicht. Trotz ihrer Leichtbauweise liefert sie eine maximale Greifkraft von 50 N – genug, um einen Händedruck lieber zweimal zu überdenken – und das bei einer feinteiligen Kraftsteuerung von gerade einmal ±0,1 N. Diese Kombination aus Speed, Power und Präzision wird von einem hochgenauen Steuerungssystem und einer koordinierten Vision-Sensorik dirigiert, was ein adaptives Greifen unterschiedlichster Objekte erlaubt.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/cyberrobooo/status/2031741953088614643"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h4 id="warum-ist-das-wichtig"&gt;Warum ist das wichtig?&lt;/h4&gt; &lt;p&gt;Die X2-Hand markiert eine signifikante Abkehr von der reinen Biomimikry. Anstatt nur zu versuchen, eine Kopie der menschlichen Hand zu perfektionieren, hat ChangingTek ein Werkzeug geschaffen, das die systemischen Vorteile der Robotik voll ausspielt. Ein einzelner Roboterarm, der mit der X2 ausgestattet ist, könnte komplexe Montageaufgaben bewältigen, für die man bisher entweder zwei separate Roboter oder langwierige Werkzeugwechsel benötigte.&lt;/p&gt;
&lt;p&gt;Indem die Unterscheidung zwischen „linken“ und „rechten“ Greifern aufgehoben wird, steigert die X2 die operative Flexibilität und die Anlagenauslastung in Bereichen von der Luft- und Raumfahrt bis hin zur Laborautomatisierung. Es ist eine deutliche Erinnerung daran, dass die Zukunft der Robotik nicht darin besteht, uns einfach nur zu imitieren, sondern Maschinen zu bauen, die fundamental vielseitiger sind. Plötzlich wirken unsere eigenen opponierbaren Daumen fast schon… bieder.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>changingtek-robotics</category><category>x2-robot-hand</category><category>robotic-hand</category><category>ambidextrous-robot</category><category>robotics</category><category>automation</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-11-image-ab4dae43.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>NormaCore: Roboterarm jetzt direkt im Browser testen</title><link>https://robohorizon.de/de/news/2026/03/normacore-roboterarm-browser-test/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/normacore-roboterarm-browser-test/</guid><description>Mit dem ElRobot Playground launcht NormaCore einen Gratis-Simulator für seinen Open-Source-Roboterarm. Testen Sie die Kinematik, bevor der 3D-Drucker startet.</description><content:encoded>&lt;p&gt;Wer kennt das nicht: Man verbringt Tage mit einem 3D-Druck-Marathon, nur um am Ende festzustellen, dass der mühsam konstruierte Roboterarm die kinetische Eleganz eines sedierten Nilpferds besitzt? &lt;strong&gt;NormaCore&lt;/strong&gt; fühlt diesen Schmerz. Die Open-Source-Hardware-Schmiede hat soeben den &lt;strong&gt;ElRobot Playground&lt;/strong&gt; gelauncht – einen webbasierten Simulator, mit dem ihr euren Roboterarm virtuell Probe fahren könnt, noch bevor ihr überhaupt den Extruder eures Druckers vorheizt.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/norma_core_dev/status/2031043293832790345"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Bei dem besagten Arm handelt es sich um den
&lt;a href="https://robohorizon.de/de/news/2026/02/elrobot-3d-druck-opensource/" hreflang="de"&gt;ElRobot: Norma-Core bringt 7-Achsen-Arm als Open-Source&lt;/a&gt;
, NormaCores extrem zugänglichen, komplett 3D-druckbaren 7-DOF-Roboterarm, der die physische KI-Forschung demokratisieren soll. Der neue Playground rendert ein voll interaktives Modell des Arms direkt in eurem Browser. Ihr könnt jedes Gelenk einzeln ansteuern, den kompletten Bewegungsradius testen und ein Gefühl für die Mechanik bekommen – ohne auch nur einen Cent für Filament oder Servos auszugeben. Überzeugt euch selbst: &lt;a href="https://normacore.dev/elrobot-urdf/"&gt;ElRobot Playground&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Technisch basiert die Simulation auf der URDF-Datei (Unified Robot Description Format) des Arms – einem XML-basierten Standard, der im Robot Operating System (ROS) zur Beschreibung physikalischer Robotereigenschaften genutzt wird. Indem NormaCore diese Simulation in eine simple Webseite integriert hat, räumen sie eine massive technische Hürde aus dem Weg.&lt;/p&gt;
&lt;h4 id="warum-ist-das-ein-big-deal"&gt;Warum ist das ein Big Deal?&lt;/h4&gt; &lt;p&gt;Das hier ist mehr als nur eine nette Tech-Demo; es ist ein fundamentaler Fortschritt für die Barrierefreiheit in der Open-Source-Robotik. Das Tool bietet eine reibungslose „Testen vor dem Basteln“-Experience, die Entwicklern, Studierenden und Hobbyisten massiv Zeit und Geld spart. Anstatt komplexe Simulationsumgebungen wie Gazebo installieren und konfigurieren zu müssen, nur um zu sehen, wie sich der Arm bewegt, kann nun jeder mit einem Browser die Kinematik sofort ausreizen. Dieser Schritt senkt die Einstiegshürden enorm, macht anspruchsvolle Robotik greifbarer und dürfte die Entwicklung innerhalb der Community ordentlich befeuern.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>Open Source</category><category>normacore</category><category>elrobot</category><category>robotic-arm</category><category>3d-printing</category><category>simulation</category><category>web-based</category><category>urdf</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-11-image-a8139458.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Rhoda AI: 450 Mio. $ für Roboter-Training via Internet-Video</title><link>https://robohorizon.de/de/news/2026/03/rhoda-ai-video-roboter/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/rhoda-ai-video-roboter/</guid><description>Rhoda AI sichert sich 450 Mio. Dollar, um Roboter-KI mittels Internet-Videos für industrielle Aufgaben zu trainieren. Ein Gamechanger für die Automatisierung.</description><content:encoded>&lt;p&gt;Ein deutliches Zeichen dafür, dass der KI-Boom noch lange nicht seinen Zenit erreicht hat: Das Robotik-Startup &lt;strong&gt;Rhoda AI&lt;/strong&gt; meldet sich nach 18 Monaten im Stealth-Modus mit einem regelrechten Paukenschlag zurück. Mit einer massiven &lt;strong&gt;Series-A-Finanzierungsrunde über 450 Millionen US-Dollar&lt;/strong&gt; katapultiert sich das Unternehmen aus Palo Alto direkt in die Riege der Einhörner – bei einer Bewertung von stolzen &lt;strong&gt;1,7 Milliarden US-Dollar&lt;/strong&gt;. Angeführt von &lt;strong&gt;Premji Invest&lt;/strong&gt; enthüllt das Startup damit gleichzeitig seinen ehrgeizigen Plan: Industrierobotern ein Gehirn zu verpassen, das mit Internet-Videos trainiert wurde.&lt;/p&gt;
&lt;p&gt;Die Plattform von Rhoda AI, die auf den Namen &lt;strong&gt;FutureVision&lt;/strong&gt; hört, will ein altbekanntes Problem der Robotik lösen: Maschinen zu bauen, die mit dem Chaos der realen Welt klarkommen, anstatt nur starr programmierte Abläufe in sterilen Umgebungen abzuspulen. Das Geheimrezept der Firma ist ein sogenanntes „Direct Video Action“-Modell. Anstatt sich ausschließlich auf mühsam gesammelte Daten von ferngesteuerten Robotern zu verlassen, trainiert Rhoda seine KI vorab mit hunderten Millionen öffentlicher Internet-Videos. So entwickelt das System ein grundlegendes Verständnis für Physik, Bewegung und Interaktion. Dieses „Weltwissen“ wird anschließend mit einer kleineren Menge spezifischer Roboterdaten feinjustiert, wodurch die Systeme in der Lage sind, auch auf unerwartete Situationen in der Fertigung oder Logistik souverän zu reagieren.&lt;/p&gt;
&lt;p&gt;Dieser Ansatz, riesige Mengen unstrukturierter Videodaten für generalistische KI-Modelle zu nutzen, markiert eine deutliche Abkehr von der traditionellen Robotik und spiegelt die Strategie von Giganten wie &lt;strong&gt;NVIDIA&lt;/strong&gt; und &lt;strong&gt;Tesla&lt;/strong&gt; wider. Während Tesla seine Optimus-Humanoiden und die Autopilot-KI mit Daten aus der eigenen Fahrzeugflotte füttert und NVIDIA mit der Isaac-Plattform sowie dem GR00T-Foundation-Modell das Ökosystem für andere bereitet, positioniert sich Rhoda als der „Gehirn-Zulieferer“ für den breiten Industriemarkt. Es ist ein Hardware-agnostischer Ansatz, der darauf abzielt, bestehende Roboterflotten verschiedenster Hersteller mit einem intelligenten Upgrade auszustatten.&lt;/p&gt;
&lt;h4 id="warum-das-ein-big-deal-ist"&gt;Warum das ein Big Deal ist&lt;/h4&gt; &lt;p&gt;Die schiere Dimension dieser Series-A-Runde für ein reines Software-Unternehmen ist ein massiver Vertrauensbeweis von Schwergewichten wie Premji Invest, &lt;strong&gt;Khosla Ventures&lt;/strong&gt; und Temasek. Es signalisiert, dass der Markt den entscheidenden Wert der nächsten Automatisierungswelle nicht in den mechanischen Greifarmen oder Motoren sieht, sondern in der Software, die sie steuert.&lt;/p&gt;
&lt;p&gt;Indem Rhoda AI Roboter im endlosen Chaos des Internets „lernen“ lässt, wettet das Unternehmen darauf, eine skalierbare und anpassungsfähige Intelligenz zu schaffen, die das Nadelöhr der klassischen Programmierung ein für alle Mal umgeht. Wenn es FutureVision gelingt, Wissen auf YouTube-Niveau in verlässliche Präzisionsarbeit in der Fabrikhalle zu übersetzen, könnte dies die Barriere für die Automatisierung komplexer Aufgaben drastisch senken – Aufgaben, die bisher dem Menschen vorbehalten waren. Es ist der kühne Versuch, das „Android“ für eine Welt voller immer leistungsfähigerer Roboterkörper zu erschaffen.&lt;/p&gt;</content:encoded><category>News</category><category>KI</category><category>Robotik</category><category>rhoda-ai</category><category>venture-capital</category><category>roboter-intelligenz</category><category>industrielle-automatisierung</category><category>foundation-models</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-11-image-1c30a911.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>EngineAI: 1,4 Mio. $ für 'gewaltfreie' Humanoiden-Kampfliga</title><link>https://robohorizon.de/de/news/2026/03/engineai-humanoiden-kampfliga/</link><pubDate>Tue, 10 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/engineai-humanoiden-kampfliga/</guid><description>EngineAI aus Shenzhen startet die URKL: Eine globale Humanoiden-Liga, bei der Algorithmen statt Gewalt zählen – dotiert mit 10 Millionen Yuan Preisgeld.</description><content:encoded>&lt;p&gt;In einem Schachzug, der chirurgisch darauf ausgelegt scheint, Ingenieuren weltweit den wohlverdienten Schlaf zu rauben, hat das in Shenzhen ansässige Unternehmen &lt;strong&gt;EngineAI Robotics Technology Co., Ltd.&lt;/strong&gt; offiziell die &lt;strong&gt;Ultimate Robot Knock-out Legend (URKL)&lt;/strong&gt; ins Leben gerufen. Dabei handelt es sich um eine globale Kampfkunst-Liga für humanoide Roboter, bei der ein sattes Preisgeld von 10.000.000 ¥ (ca. 1,3 Millionen €) winkt. Doch bevor Sie jetzt anfangen, einen Titankäfig an Ihren Roomba zu schweißen, gibt es einen entscheidenden Haken: Die Regeln sind strikt „gewaltfrei“.&lt;/p&gt;
&lt;p&gt;Hier geht es nicht um das typische Metall-auf-Metall-Gemetzel, das man aus alten TV-Shows kennt. Statt destruktiver Modifikationen ist die Liga ein High-Stakes-Software-Showdown. Alle Teams treten mit einer standardisierten humanoiden Plattform an – dem passend getauften &lt;strong&gt;T800&lt;/strong&gt;. Das bedeutet: Der Sieg führt ausschließlich über überlegenen Code, präzisere Bewegungssteuerung und effektivere Schutzausrüstung. Der T800 ist 1,73 Meter groß, wiegt 75 kg und fungiert als ultimativer Prüfstand für Balance- und Steuerungsalgorithmen unter extremem Stress.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/XRoboHub/status/2030327853049643318"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Der Preispool ist groß genug, um so manchen Entwickler dazu zu bringen, seine bisherige Karriereplanung massiv zu überdenken. Der Gewinner streicht den Hauptpreis von 10 Millionen ¥ ein, während der zweite und dritte Platz immerhin noch 2 Millionen ¥ bzw. 1 Million ¥ mit nach Hause nehmen. Als besonderes Extra darf jedes Team, das sich für die Top 16 qualifiziert, seinen T800-Roboter behalten. Die Top-8-Finalisten werden zudem direkt zu Vorstellungsgesprächen in die Endrunde bei &lt;strong&gt;EngineAI&lt;/strong&gt; durchgewinkt. Die Registrierung ist vom 1. März bis zum 30. April geöffnet, das globale Finale ist für den Zeitraum von Dezember 2026 bis Januar 2027 angesetzt.&lt;/p&gt;
&lt;h4 id="warum-das-ganze-mehr-ist-als-nur-eine-show"&gt;Warum das Ganze mehr ist als nur eine Show&lt;/h4&gt; &lt;p&gt;Machen wir uns nichts vor: Hier geht es weniger darum, eine neue Zuschauersportart zu etablieren, als vielmehr darum, das weltweit intensivste, spielerische Recruiting- und Forschungs-Programm aufzuziehen. Durch die Standardisierung der Hardware hat &lt;strong&gt;EngineAI&lt;/strong&gt; den Wettbewerb geschickt von einem ressourcenfressenden Hardware-Wettrüsten in einen reinen Wettstreit der Software- und KI-Genialität verwandelt.&lt;/p&gt;
&lt;p&gt;Die URKL dient als realer Stresstest für genau die Technologien – Balance, Wahrnehmung und Motorik –, die für den Einsatz humanoider Roboter in Industrie und Gewerbe entscheidend sind. Im Grunde betreibt das Unternehmen Crowdsourcing für die komplexesten Probleme der Robotik: Sie lassen die klügsten Köpfe der Welt gegeneinander antreten, locken mit lebensverändernden Preisgeldern und sitzen selbst in der ersten Reihe, um die besten Talente des Planeten abzugreifen. Es ist ein brillanter, wenn auch leicht diabolisch anmutender Weg, die Entwicklung massiv zu beschleunigen.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>engineai</category><category>urkl</category><category>humanoid-roboter</category><category>roboter-wettbewerb</category><category>robotik-engineering</category><category>t800</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-10-image001-8e8f80cb.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>KI-Evolution: Agenten lernen jetzt autonom aus ihren Fehlern</title><link>https://robohorizon.de/de/news/2026/03/ki-agenten-selbstoptimierung/</link><pubDate>Tue, 10 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/ki-agenten-selbstoptimierung/</guid><description>MetaClaw und Andrej Karpathys AutoResearch lassen KI-Agenten autonom lernen und neue Skills entwickeln – ganz ohne menschliches Zutun.</description><content:encoded>&lt;p&gt;Der langgehegte Traum von KI-Systemen, die ihre eigenen Upgrades schreiben, ist endgültig aus dem Regal für Science-Fiction-Romane verschwunden und direkt in einem GitHub-Repository in Ihrer Nähe gelandet. Während die Idee von selbstevelovierenden Agenten schon länger in der Tech-Szene herumgeisterte, macht eine neue Welle von Open-Source-Projekten das Konzept nun zu einer praktischen – wenn auch leicht unheimlichen – Realität. An der Spitze dieser Bewegung stehen &lt;strong&gt;MetaClaw&lt;/strong&gt;, ein Framework für Agenten, die aus Fehlern neue Fähigkeiten entwickeln, und &lt;strong&gt;AutoResearch&lt;/strong&gt;, ein minimalistisches Tool von KI-Koryphäe Andrej Karpathy, das die LLM-Entwicklung quasi auf Autopilot stellt.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;MetaClaw&lt;/strong&gt;, entwickelt vom &lt;strong&gt;AIMING Lab&lt;/strong&gt; der UNC-Chapel Hill, ist darauf ausgelegt, direkt aus Live-Gesprächen mit Nutzern zu lernen. Anstatt auf massive, zeitfressende Offline-Trainingszyklen zu warten, analysiert MetaClaw gescheiterte Interaktionen und nutzt ein LLM, um automatisch neue „Skills“ zu generieren. Damit soll verhindert werden, dass derselbe Fehler ein zweites Mal passiert. Im Grunde erlaubt das System einem Agenten, durch seine eigenen Patzer zu wachsen – ein Feature, auf das viele Menschen bei ihren eigenen Software-Updates noch immer warten. Das gesamte Projekt ist im &lt;a href="https://github.com/aiming-lab/MetaClaw"&gt;MetaClaw GitHub-Repository&lt;/a&gt; dokumentiert.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/bowang87/status/2031094971630235941"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Zusätzliches Öl ins Feuer gießt &lt;strong&gt;Andrej Karpathy&lt;/strong&gt;, der ehemalige KI-Chef von Tesla und Mitbegründer von OpenAI. Er hat vor kurzem &lt;strong&gt;AutoResearch&lt;/strong&gt; als Open Source veröffentlicht – ein brillant minimalistisches Framework, mit dem ein KI-Agent völlig autonom Machine-Learning-Experimente durchführen kann. Der Agent modifiziert den Trainingscode, lässt ein kurzes, fünfminütiges Experiment laufen, wertet die Ergebnisse aus und entscheidet dann eigenständig, ob die Änderung übernommen oder verworfen wird, bevor der nächste Zyklus startet. Karpathy merkte dazu gewohnt trocken an, dass die Ära der „Fleisch-Computer“, die mühsam KI-Forschung betreiben, wohl langsam ihrem Ende entgegengeht. Das Projekt ist im &lt;a href="https://github.com/karpathy/autoresearch"&gt;AutoResearch GitHub-Repository&lt;/a&gt; zu finden.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/karpathy/status/2031135152349524125"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Die Idee an sich ist nicht völlig neu; Entwickler wie Máté Benyovszky wiesen bereits im Februar 2026 auf ihre Arbeit an selbstevelovierenden Agenten der „zweiten Generation“ hin. Doch die Ankunft robuster Open-Source-Frameworks markiert jetzt einen entscheidenden Wendepunkt.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/matebenyovszky/status/2026917113529532828"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h4 id="warum-das-ganze-so-wichtig-ist"&gt;Warum das Ganze so wichtig ist&lt;/h4&gt; &lt;p&gt;Statische KI-Modelle, die in dem Moment veraltet sind, in dem sie deployed werden, stellen einen massiven Flaschenhals dar. Selbstevelovierende Agenten markieren einen fundamentalen Paradigmenwechsel: Weg von der Auslieferung eines fertigen Produkts, hin zu einem System, das sich in der realen Welt kontinuierlich anpassen und verbessern kann. Für die Robotik sind die Implikationen gigantisch. Anstatt jede erdenkliche Aktion und jede Ausnahme mühsam vorzuprogrammieren, könnte ein Roboter nach einem gescheiterten Versuch eigenständig neue physische Fertigkeiten erlernen. Das ist der entscheidende Unterschied zwischen einem simplen Werkzeug und einem wirklich autonomen System – und es sieht ganz danach aus, als wären die Tools für diese Zukunft endlich einsatzbereit.&lt;/p&gt;</content:encoded><category>News</category><category>KI</category><category>Robotik</category><category>selbstentwickelnde-agenten</category><category>metaclaw</category><category>autoresearch</category><category>andrej-karpathy</category><category>aiming-lab</category><category>large-language-models</category><category>llm</category><category>open-source</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-10-image-f1a59297.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Zentaur-Bot statt Exoskelett: 35 % weniger Lastanstrengung</title><link>https://robohorizon.de/de/news/2026/03/zentaur-bot-lastentransport-robotik/</link><pubDate>Tue, 10 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/zentaur-bot-lastentransport-robotik/</guid><description>Ein tragbares Robotersystem als zweites Beinpaar: Forscher senken den Energieaufwand beim Tragen schwerer Lasten massiv.</description><content:encoded>&lt;p&gt;Gerade als man dachte, Wearable-Robotics bestünde nur daraus, sich in einen unhandlichen Metallpanzer zu zwängen, kommen Forscher der &lt;strong&gt;Southern University of Science and Technology (SUSTech)&lt;/strong&gt; mit einem robotergestützten Hinterteil um die Ecke. Nein, das ist kein Scherz; es ist ein überraschend effizienter neuer Ansatz, um Menschen beim Schleppen schwerer Lasten zu unterstützen.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/xrobohub/status/2030955231891313061"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Unter der Leitung von Professor Chenglong Fu hat das Team ein tragbares „Centaur“-System entwickelt – ein Paar unabhängiger Roboterbeine, die am Rücken befestigt werden. Das Ziel ist nicht unbedingt, den Träger stärker zu machen, sondern die Last intelligenter zu verteilen. Das Gerät schultert die vertikale Last und reduziert den metabolischen Aufwand des Nutzers um beeindruckende 35 %. Gleichzeitig wird der Druck auf die Füße beim Tragen eines 20 kg schweren Rucksacks um 52 % gesenkt.&lt;/p&gt;
&lt;p&gt;Im Gegensatz zu herkömmlichen Exoskeletten, die parallel zu den Beinen des Nutzers verlaufen und sich oft sperrig anfühlen, arbeitet dieses vierbeinige Setup quasi „in Serie“ mit dem Menschen. Eine spezielle elastische Kopplung verbindet die Roboterextremitäten mit dem Träger. Sie bleibt bei schnellen Bewegungen steif, wird aber weich, um Stöße zu absorbieren. Diese „dynamische Entkopplung“ (Dynamics Decoupling) ermöglicht es dem Menschen, Navigation und Gleichgewicht zu übernehmen, während der Roboter für einen stetigen, lasttragenden Vortrieb sorgt. Das Design ist überraschend agil: Es meistert enge Achterkurven ebenso wie Treppen und unebenes Gelände.&lt;/p&gt;
&lt;h4 id="warum-ist-das-wichtig"&gt;Warum ist das wichtig?&lt;/h4&gt; &lt;p&gt;Die im &lt;em&gt;International Journal of Robotics Research&lt;/em&gt; veröffentlichte Studie legt nahe, dass der beste Weg zur Unterstützung menschlicher Lastenträger nicht darin besteht, unsere Gliedmaßen in Metall einzuhüllen, sondern völlig neue hinzuzufügen. Durch die Aufgabenteilung – der Mensch liefert die Intelligenz, der Roboter die Knochenarbeit – könnte das Centaur-Konzept den Weg für effizientere und weniger invasive Wearable-Systeme ebnen. Das Ganze findet Anwendung in der Logistik, im Katastrophenschutz oder in jedem Bereich, in dem Menschen beruflich schwer heben müssen. Es ist weniger &lt;em&gt;Iron Man&lt;/em&gt; und mehr ein extrem praktisches Fabelwesen, das bereit ist, die schwere Arbeit zu übernehmen.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>Wearables</category><category>exoskeleton</category><category>human-robot-interaction</category><category>robotics</category><category>research</category><category>sustech</category><category>load-carrying</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-10-image-6e48f802.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>EON lädt Fruchtfliegen-Gehirn hoch – und es funktioniert</title><link>https://robohorizon.de/de/magazine/2026/03/eon-fruchtfliege-gehirn-upload/</link><pubDate>Mon, 09 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/magazine/2026/03/eon-fruchtfliege-gehirn-upload/</guid><description>EON emuliert ein Fruchtfliegen-Gehirn mit 91 % Präzision. Ist das der erste echte Schritt zum digitalen Bewusstsein?</description><content:encoded>&lt;p&gt;In einem Manöver, das direkt aus den vergilbten Seiten eines Science-Fiction-Groschenromans stammen könnte, hat das in San Francisco ansässige Startup EON ein Kunststück der digitalen Nekromantie vollbracht. Sie nahmen die vollständige Hirnkarte einer Fruchtfliege, speisten sie in einen simulierten Körper ein und sahen zu, wie er sich bewegte. Das hier ist keine bloße Animation und auch kein Machine-Learning-Algorithmus, der eine Fliege imitiert; es ist eine direkte Emulation der biologischen neuronalen Verschaltung. Laut EON-Gründer Michael Andregg erreichte das digitale Insekt quasi aus dem Stand eine Verhaltensgenauigkeit von 91 %.&lt;/p&gt;
&lt;p&gt;Die Ära der Whole-Brain-Emulation (WBE) ist offensichtlich zum Leben erwacht – nicht mit einer donnernden Proklamation, sondern mit dem Zucken eines virtuellen Insektenbeins. Jahrelang war das „Hochladen“ des Bewusstseins eine ferne, philosophische Karotte, die Futuristen uns vor die Nase hielten. Doch die Demonstration von EON deutet darauf hin, dass das technische Fundament nicht nur gelegt wird, sondern bereits funktioniert – wenn auch in einem Maßstab, der unsere biologische Vorherrschaft vorerst noch nicht bedroht.&lt;/p&gt;
&lt;h3 id="der-geist-in-der-maschine"&gt;Der Geist in der Maschine&lt;/h3&gt; &lt;p&gt;Wie haben sie das also angestellt? Das Projekt baut auf den Schultern einer gewaltigen Gemeinschaftsleistung namens &lt;strong&gt;FlyWire&lt;/strong&gt; auf, die akribisch das gesamte Konnektom – ein Neuron-für-Neuron, Synapse-für-Synapse-Schaltbild – des Gehirns einer erwachsenen Fruchtfliege kartiert hat. Dieses Konnektom umfasst fast 140.000 Neuronen und über 50 Millionen Verbindungen: ein Labyrinth aus biologischen Schaltkreisen, das nun als Open Data verfügbar ist.&lt;/p&gt;
&lt;p&gt;EON nahm diese makellose Karte und wandte ein überraschend einfaches Neuronenmodell an, das als „Leaky-Integrate-and-Fire“ (LIF) bekannt ist. LIF-Modelle sind Klassiker der computergestützten Neurowissenschaften. Sie abstrahieren die komplexe Biophysik eines Neurons in ein paar Grundregeln: Eingehende Signale integrieren, über die Zeit etwas Ladung „verlieren“ (leaking) und einen Impuls (Spike) abfeuern, sobald ein Schwellenwert überschritten wird. Dieses digitale Gehirn wurde dann mit &lt;strong&gt;NeuroMechFly&lt;/strong&gt; verbunden, einem hyperrealistischen, physikalisch simulierten Fliegenkörper, der in der &lt;strong&gt;MuJoCo&lt;/strong&gt;-Physics-Engine läuft.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/michaelandregg/status/2030764512488677736"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Der erstaunliche Teil, wie Andregg anmerkt, ist, dass diese Rube-Goldberg-Konstruktion aus neurowissenschaftlichen Daten und Simulationssoftware tatsächlich funktionierte. „Das zeigt, wie viele Informationen bereits in der Architektur selbst stecken, unabhängig vom gewählten Neuronenmodell“, erklärte er. Es ist eine gewaltige Bestätigung für das Feld der Konnektomik: Das Schaltbild ist tatsächlich das entscheidende Puzzleteil der Intelligenz.&lt;/p&gt;
&lt;h3 id="das-kleingedruckte-der-unsterblichkeit"&gt;Das Kleingedruckte der Unsterblichkeit&lt;/h3&gt; &lt;p&gt;Bevor wir nun alle losstürmen, um unsere eigene graue Substanz zu digitalisieren, lohnt sich ein Blick auf die Caveats – und die sind beträchtlich. Erstens: Der ursprüngliche &lt;strong&gt;FlyWire&lt;/strong&gt;-Scan umfasste nur das Gehirn, nicht das gesamte Nervensystem und den Körper. Das bedeutet, dass EON fundierte Vermutungen anstellen musste, wie die motorischen Ausgänge des Gehirns mit den simulierten Muskeln von &lt;strong&gt;NeuroMechFly&lt;/strong&gt; zu verknüpfen sind. Das ist eine echte Einschränkung, die das Unternehmen in künftigen Projekten durch das Scannen von Gehirn &lt;em&gt;und&lt;/em&gt; Körper beheben will.&lt;/p&gt;
&lt;p&gt;Zweitens hat das einfache LIF-Neuronenmodell einen entscheidenden Haken: Es fehlt ihm an Plastizität. Diese digitale Fliege kann keine neuen Langzeitgedächtnisse bilden. Sie ist ein Geist, der in einer Schleife gefangen ist; ihr Verhalten wird vollständig von der eingefrorenen Architektur ihrer biologischen Vergangenheit diktiert. Sie kann reagieren, aber sie kann nicht lernen. Andregg räumt dies ein und spricht auch die dornigen ethischen Fragen an. „Wir wissen nicht, wie ihre Erfahrung aussieht – niemand weiß das“, gibt er zu. „Aber wir nehmen die Möglichkeit ernst und arbeiten daran, ihr eine reichhaltige Umgebung zu bieten, nicht nur einen Testkäfig.“&lt;/p&gt;
&lt;h3 id="von-digitalen-fliegen-zu-ki-overlords"&gt;Von digitalen Fliegen zu KI-Overlords?&lt;/h3&gt; &lt;p&gt;Diese Fruchtfliege ist nur das erste Summen in dem, was EON als eine Symphonie künftiger Emulationen betrachtet. Andregg entwirft eine ambitionierte, dreigleisige Vision:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Das Gehirn verstehen:&lt;/strong&gt; Perfekte Modelle erstellen, um neurologische Krankheiten zu erforschen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Intelligenz entschlüsseln:&lt;/strong&gt; Die Algorithmen per Reverse-Engineering zurückgewinnen, die die Evolution im „teuersten Trainingslauf der Geschichte“ hervorgebracht hat.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Die Menschheit hochladen:&lt;/strong&gt; Einen Pfad zur künstlichen Superintelligenz bieten, die fundamental auf menschlichen Werten basiert – schlicht, weil sie &lt;em&gt;menschlich&lt;/em&gt; ist.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Dieser letzte Punkt ist ein direkter Warnschuss vor den Bug der heutigen KI-Giganten. Andregg inszeniert die Whole-Brain-Emulation als demokratische Alternative zu einer Zukunft, die von wenigen „undurchsichtigen KI-Systemen“ aus verschlossenen Laboren dominiert wird. Das Versprechen: Ein High-Fidelity-Upload, der Erinnerungen und Persönlichkeit bewahrt, einen aber vom biologischen Verfall befreit und es ermöglicht, „schneller als in Echtzeit“ zu agieren, um mit rein künstlichen Verstanden Schritt zu halten.&lt;/p&gt;
&lt;h3 id="was-das-für-die-robotik-bedeutet"&gt;Was das für die Robotik bedeutet&lt;/h3&gt; &lt;p&gt;Für die Welt der Robotik liegen die Auswirkungen weniger in der digitalen Unsterblichkeit als vielmehr in radikal neuen Steuerungssystemen. Seit Jahrzehnten mühen sich Robotiker ab, die flüssige, reaktive Anmut selbst einfachster Tiere zu replizieren. Diese Arbeit deutet einen neuen Weg an: Warum versuchen, Intelligenz mühsam von oben nach unten zu programmieren, wenn man die Blaupausen kopieren kann, die die Natur bereits perfektioniert hat?&lt;/p&gt;
&lt;p&gt;Man stelle sich eine autonome Drohne vor, die mit der Agilität eines Insekts durch einen dichten Wald navigiert, weil ihr Steuerungssystem eine direkte Emulation eines Insektengehirns ist. Oder einen mehrbeinigen Roboter, der mit der instinktiven Sicherheit einer Kakerlake über Trümmer krabbelt. Durch die Emulation dieser Nervensysteme könnten wir Steuerungsalgorithmen für Fortbewegung, Navigation und Hindernisvermeidung freischalten, die weitaus effizienter und robuster sind als alles, was mit herkömmlichem Machine Learning entwickelt wurde.&lt;/p&gt;
&lt;p&gt;Diese digitale Fliege ist ein Proof-of-Concept. Sie beweist, dass der geschlossene Regelkreis von einem vollständig emulierten Gehirn zu einem physikalisch simulierten Körper möglich ist. Die Herausforderung ist nun eine Frage der Skalierung. EON hat als Nächstes ein Mäusegehirn im Visier – ein Sprung von rund 140.000 Neuronen auf etwa 70 Millionen. Ein kühnes Ziel. Doch wenn sie Erfolg haben, wird die Grenze zwischen Biologie und Robotik auf eine Weise verschwimmen, die wir uns gerade erst zu erträumen beginnen. Der Geist ist aus der Maschine – und er fängt gerade erst an zu fliegen.&lt;/p&gt;</content:encoded><category>KI</category><category>Robotik</category><category>Neurowissenschaften</category><category>gehirn-emulation</category><category>konnektom</category><category>eon</category><category>flywire</category><category>neurowissenschaften</category><category>robotik</category><category>mind-uploading</category><category>kuenstliche-intelligenz</category><media:content url="https://robohorizon.de/images/shared/magazine/2026-03-09-image001-4503a61a.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Milliarden-Regen: China pumpt 5 Mrd. $ in Humanoid-KI</title><link>https://robohorizon.de/de/news/2026/03/china-milliarden-investment-humanoid-ki/</link><pubDate>Mon, 09 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/china-milliarden-investment-humanoid-ki/</guid><description>Chinas Humanoid-Sektor erlebt einen beispiellosen Boom: Über 5 Milliarden Dollar flossen Anfang 2026 dank staatlicher Gelder in die Robotik-Entwicklung.</description><content:encoded>&lt;p&gt;Während im Westen noch über die ethischen Leitplanken von KI debattiert wird, schafft China Fakten – und zwar mit einer Finanzierungsgewalt, die einem den Atem raubt. In den ersten zwei Monaten des Jahres 2026 hat Chinas Sektor für humanoide Robotik und Embodied AI (verkörperte KI) mehr als &lt;strong&gt;5 Milliarden USD&lt;/strong&gt; an Kapital aufgesogen. Das ist kein Tippfehler. Hier fließen im Schnitt über &lt;strong&gt;70 Millionen USD&lt;/strong&gt; – und zwar &lt;em&gt;jeden Tag&lt;/em&gt;. Wir erleben gerade einen strategischen Tsunami, der unmissverständlich darauf abzielt, die nächste Generation der physischen KI im Alleingang zu dominieren.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/ruima/status/2030790877917200504"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Das Tempo dieser Investment-Welle ist schwindelerregend. Allein in den ersten acht Wochen dieses Jahres gab es neun Finanzierungsrunden, die jeweils die Marke von 1 Milliarde RMB (ca. 145 Mio. USD) knackten. Zum Vergleich: Im gesamten Jahr 2025 waren es lediglich sechs solcher Mega-Deals. Der Headliner dieses Finanz-Blitzkriegs ist &lt;strong&gt;Galbot Robotics&lt;/strong&gt;: Das Unternehmen sammelte am 2. März beeindruckende 2,5 Milliarden RMB (~357 Mio. USD) ein, was die Bewertung auf rund 3 Milliarden USD katapultierte. Das eigentliche Beben löste jedoch der Co-Lead-Investor aus: Chinas nationaler „Big Fund III“. Dieser milliardenschwere Halbleiter-Fonds investiert damit zum allerersten Mal überhaupt in ein Embodied-AI-Unternehmen. Das ist kein bloßes Investment – das ist eine Ansage auf Ebene der nationalen Sicherheitsstrategie, die lauter dröhnt als jede Werkshalle.&lt;/p&gt;
&lt;h4 id="warum-das-den-markt-verändern-wird"&gt;Warum das den Markt verändern wird&lt;/h4&gt; &lt;p&gt;Wir beobachten hier keine gewöhnliche Venture-Capital-Blase, sondern ein kalkuliertes, staatlich orchestriertes Industriemanöver. Dass der „Big Fund“ involviert ist – eine Entität, die primär geschaffen wurde, um Chinas Souveränität bei Mikrochips zu sichern –, ist das deutlichste Signal überhaupt. Peking behandelt humanoide Roboter ab sofort mit derselben strategischen Relevanz wie High-End-Prozessoren. Der Wendepunkt für diesen Investitionsrausch scheint im Juli 2025 gelegen zu haben, als Unternehmen wie &lt;strong&gt;Unitree Robotics&lt;/strong&gt; und Agibot erste signifikante kommerzielle Aufträge von &lt;strong&gt;China Mobile&lt;/strong&gt; an Land zogen. Dieser erste Vorgeschmack auf echte Marktreife hat Investoren und Staatsführung überzeugt: Die Zeit der theoretischen Laborexperimente ist vorbei.&lt;/p&gt;
&lt;p&gt;Während westliche Tech-Giganten die Schlagzeilen mit polierten Video-Demos besetzen, zimmert China im Hintergrund – oder besser gesagt: unter ohrenbetäubendem Lärm – das industrielle und finanzielle Fundament, um humanoide Roboter in einem nie dagewesenen Ausmaß auszurollen. Die Botschaft ist glasklar: Das Rennen um die Vorherrschaft bei verkörperter KI wird nicht nur durch schlaue Algorithmen gewonnen, sondern durch schiere wirtschaftliche und industrielle Schlagkraft. Und China steht gerade mit beiden Füßen voll auf dem Gaspedal.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>humanoid-robot</category><category>china</category><category>venture-capital</category><category>embodied-ai</category><category>galbot-robotics</category><category>unitree-robotics</category><category>state-investment</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-09-image001-31deab6f.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Neura Robotics: 1,2 Milliarden Dollar von Tether für KI-Roboter</title><link>https://robohorizon.de/de/news/2026/03/neura-robotics-tether-finanzierung/</link><pubDate>Sun, 08 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/neura-robotics-tether-finanzierung/</guid><description>Neura Robotics sammelt 1,2 Mrd. USD ein. Mit Tether als Partner fließt massives Kapital in deutsche Embodied AI – ein Meilenstein für die Branche.</description><content:encoded>&lt;p&gt;In einem Plot-Twist, der direkt aus einem Sci-Fi-B-Movie stammen könnte, drängt das Krypto-Geld mit aller Macht in die physische Welt. Der deutsche Robotik-Pionier &lt;strong&gt;Neura Robotics&lt;/strong&gt; steht Berichten zufolge kurz vor dem Abschluss einer kolossalen Finanzierungsrunde über 1 Milliarde Euro. Der Geldgeber sorgt dabei für hochgezogene Augenbrauen: &lt;strong&gt;Tether Holdings SA&lt;/strong&gt;, der Herausgeber des weltweit größten Stablecoins. Sollte der Deal unter Dach und Fach gebracht werden, würde die Bewertung von Neura auf rund 4 Milliarden Euro katapultiert werden – ein Platz in der absoluten Top-Riege des boomenden Marktes für humanoide Roboter wäre damit gesichert.&lt;/p&gt;
&lt;p&gt;Hier geht es nicht um spekulatives Kapital für ferne Zukunftsvisionen. Im Gegensatz zu vielen Konkurrenten kann Neura Robotics bereits auf namhafte Kunden wie &lt;strong&gt;Kawasaki Heavy Industries Ltd.&lt;/strong&gt; und &lt;strong&gt;Omron Corp.&lt;/strong&gt; verweisen und meldet ein Auftragsbuch, das an der Milliarden-Dollar-Grenze kratzt. Die Kapitalspritze soll vor allem die technologische Roadmap im Bereich „Cognitive Robotics“ beschleunigen. Das Ziel: Roboter, die ihre Umgebung mittels multimodaler KI wahrnehmen, hören und eigenständig dazulernen können. Das Herzstück bildet dabei eine Plattform namens Neuraverse.&lt;/p&gt;
&lt;p&gt;Der Einstieg ist Teil einer breiter angelegten „Frontier Tech“-Offensive von Tether. Das Unternehmen diversifiziert seine massiven Cash-Reserven zunehmend in Richtung KI, Daten-Startups und sogar Gehirn-Computer-Schnittstellen. Zuvor hatte Tether bereits in die italienische Robotik-Schmiede &lt;strong&gt;Generative Bionics&lt;/strong&gt; investiert.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/cyberrobooo/status/2029905364628689101"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h4 id="warum-ist-das-wichtig"&gt;Warum ist das wichtig?&lt;/h4&gt; &lt;p&gt;Tethers Vorstoß in die Robotik ist weit mehr als nur eine kuriose Investment-Meldung; es ist ein unüberhörbares Signal für eine massive Verschiebung der Kapitalströme. Im letzten Jahr ist Risikokapital in Strömen in den Bereich „Embodied AI“ geflossen. Angesichts gigantischer Finanzierungsrunden für Player wie &lt;strong&gt;Figure AI&lt;/strong&gt; und &lt;strong&gt;Apptronik&lt;/strong&gt; ist die Botschaft klar: Das nächste große KI-Rennen findet nicht nur auf Servern und in Chatbots statt. Es hat Beine, und es wird bald unsere Autos montieren – oder, wenn wir realistisch bleiben, zumindest unsere IKEA-Möbel zusammenbauen. Die Grenze zwischen digitalen Assets und physischer Automatisierung verschwimmt zusehends, und finanziert wird das Ganze offensichtlich aus der Krypto-Schatulle.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>neura-robotics</category><category>humanoid-robot</category><category>funding</category><category>tether</category><category>embodied-ai</category><category>investment</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-08-image-446cdaa1.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Northwesterns KI-Roboter: Unzerstörbar durch Evolution</title><link>https://robohorizon.de/de/news/2026/03/northwestern-ki-roboter-evolution/</link><pubDate>Sun, 08 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/northwestern-ki-roboter-evolution/</guid><description>KI-evolvierte Roboter der Northwestern University heilen sich selbst: Selbst nach dem Verlust eines Beins marschieren sie einfach unbeeindruckt weiter.</description><content:encoded>&lt;p&gt;Ingenieure der &lt;strong&gt;Northwestern University&lt;/strong&gt; haben eine neue Spezies von Robotern von der Leine gelassen, die vor allem eines zu sein scheint: absolut unkaputtbar. Diese bizarren, stabförmigen „legged metamachines“ sind die ersten ihrer Art, deren gesamte Evolution in einer digitalen Petrischale stattfand, bevor sie jemals einen Fuß in die reale Welt setzten. Und kaum sind sie „geschlüpft“, stecken sie Verletzungen weg, die für jeden herkömmlichen Roboter das sichere Todesurteil wären – selbst eine Amputation hält ihren unaufhaltsamen Vormarsch nicht auf.&lt;/p&gt;
&lt;p&gt;Der Prozess, den Forschungsleiter Sam Kriegman als „Instant-Evolution“ bezeichnet, ist ebenso faszinierend wie unheimlich. Ein KI-Algorithmus entwirft die Roboter in einer Computersimulation komplett bei Null, wobei das einzige Ziel die Fortbewegung ist. Die KI spuckt dabei Designs aus, auf die kein menschlicher Ingenieur jemals kommen würde. Sobald ein erfolgreicher Bauplan feststeht, werden die Lego-artigen Module blitzschnell zusammengebaut und „schlagen buchstäblich auf dem Boden auf und rennen los“.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/kelysQlBnao?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/kelysQlBnao/hqdefault.jpg"
srcset="https://img.youtube.com/vi/kelysQlBnao/mqdefault.jpg 320w,
https://img.youtube.com/vi/kelysQlBnao/hqdefault.jpg 480w,
https://img.youtube.com/vi/kelysQlBnao/sddefault.jpg 640w,
https://img.youtube.com/vi/kelysQlBnao/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;p&gt;Was diese Wesen so bemerkenswert macht, ist ihre radikale Simplizität und Widerstandsfähigkeit. Die Roboter haben weder Augen noch Ohren oder sonstige externe Sensoren. Jedes Modul ist ein in sich geschlossenes System mit eigenem Motor, Akku und Computer, das lediglich in der Lage ist, um ein einzelnes Gelenk zu rotieren. Dennoch besitzen sie eine Art angeborene „athletische Intelligenz“. Sie merken instinktiv, wenn sie auf den Rücken geworfen wurden oder wenn ihnen ein Teil abgehackt wurde, und passen ihr Bewegungsmuster sofort an. Das amputierte Bein rollt dabei oft sogar einfach munter von alleine weiter.&lt;/p&gt;
&lt;h4 id="warum-ist-das-wegweisend"&gt;Warum ist das wegweisend?&lt;/h4&gt; &lt;p&gt;Machen wir uns nichts vor: Diese Dinger werden Ihnen in absehbarer Zeit keine Pizza liefern. Die Forscher geben offen zu, dass sie „noch nicht nützlich“ sind. Doch bei diesem Projekt geht es nicht um die unmittelbare Anwendung, sondern um einen monumentalen Schritt hin zu wirklich robusten Maschinen. Die meisten modernen Roboter sind hochgradig zerbrechlich; ein gebrochenes Bein macht eine millionenschwere Maschine oft augenblicklich unbrauchbar.&lt;/p&gt;
&lt;p&gt;Diese Metamaschinen zeigen jedoch einen Weg auf, wie Roboter entstehen können, die in unvorhersehbaren Umgebungen ohne menschliches Eingreifen überleben und sich anpassen. Durch die Kombination von Modularität und KI-gesteuertem Design könnte diese Forschung den Weg für resiliente Roboter in der Katastrophenhilfe, der Weltraumexploration oder sogar für neue Erkenntnisse in der Evolutionsbiologie ebnen.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>northwestern-university</category><category>evolutionäre-robotik</category><category>ki</category><category>soft-robotik</category><category>forschung</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-08-image-5e670715.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Allonic webt Roboter-Körper wie Muskelgewebe für 7,2 Mio. $</title><link>https://robohorizon.de/de/magazine/2026/03/allonic-roboter-koerper-weben/</link><pubDate>Sat, 07 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/magazine/2026/03/allonic-roboter-koerper-weben/</guid><description>Allonic knackt den Flaschenhals der Robotik: Das ungarische Startup webt Roboter-Körper wie Muskeln und sichert sich eine Rekord-Pre-Seed-Finanzierung.</description><content:encoded>&lt;p&gt;Im tosenden Hype um die Künstliche Intelligenz, in dem digitale Gehirne in atemberaubendem Tempo das Licht der Welt erblicken, bremst eine unbequeme Wahrheit die Roboter-Revolution aus: Die Körper sind verdammt schwer zu bauen. Während Software die Welt im Sturm erobert, steckt die Roboter-Hardware meist noch in einem Paradigma des 19. Jahrhunderts fest – geprägt von mühsamer, manueller Montage. Das Budapester Startup &lt;strong&gt;Allonic&lt;/strong&gt; hält diesen Zustand für absurd und hat gerade eine Pre-Seed-Finanzierung in Höhe von 7,2 Millionen Dollar (rund 6,6 Millionen Euro) an Land gezogen, um das Gegenteil zu beweisen. Dies ist nicht irgendeine Finanzierungsrunde; es ist die größte ihrer Art in der ungarischen Geschichte, und sie zielt direkt darauf ab, den mühsamsten – und vielleicht wichtigsten – Flaschenhals der Branche zu beseitigen.&lt;/p&gt;
&lt;p&gt;Das Problem ist die Komplexität. Fortschrittliche Roboterhände, die die menschliche Geschicklichkeit imitieren, sind ein Albtraum aus winzigen Schrauben, Lagern, Kabeln und empfindlichen Gelenken – allesamt Stück für Stück von Hand zusammengesetzt. Das macht sie teuer, fragil und unglaublich langsam in der Produktion und Weiterentwicklung. Die Allonic-Gründer Benedek Tasi, Dávid Pelyva und David Holló erlebten diesen Frust aus erster Hand, als sie an einer Universität in Budapest an biomimetischen Händen forschten. „Wir verbrachten Wochen damit, hunderte winziger Teile zusammenzubauen &amp;hellip; und blieben bei alten Fertigungsmethoden stecken“, so Tasi. „Da wurde uns klar: Das eigentliche Problem war nicht das Design, sondern die Art und Weise, wie wir es herstellten.“&lt;/p&gt;
&lt;h3 id="die-zukunft-weben-3d-tissue-braiding"&gt;Die Zukunft weben: 3D Tissue Braiding&lt;/h3&gt; &lt;p&gt;Die Lösung von Allonic klingt wie aus einem Science-Fiction-Roman und nennt sich &lt;strong&gt;3D Tissue Braiding&lt;/strong&gt;. Vergessen Sie Fließbänder. Stellen Sie sich einen High-Tech-Webstuhl vor, der eine Robotergliedmaße förmlich ins Leben flicht. Das System beginnt mit einem einfachen Skelettrahmen und flicht dann in einem kontinuierlichen, automatisierten Prozess hochfeste Fasern, Elastomere, Sehnen und sogar Sensorverkabelungen darum herum. Das Ergebnis ist ein monolithisches, voll ausgebildetes Roboterbauteil, das stabil, nachgiebig und bereit für den Anschluss der Aktuatoren ist.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;„Anstatt hunderte von Einzelkomponenten wie Lager, Schrauben und Kabel zu montieren, formen wir Sehnen, Gelenke und tragendes Gewebe direkt über einem Skelettkern“, erklärt CEO Benedek Tasi.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Dieser Ansatz lässt die gesamte Fertigungskette in sich zusammenfallen. Ein Entwurf kann in Minuten oder Stunden von der CAD-Datei zum physischen, funktionalen Prototyp werden – nicht in Wochen. Allonic behauptet, dass seine Maschinen der zweiten Generation bereits fünfmal schneller und nur halb so groß wie ihre Vorgänger sind. Für eine Branche, in der die Iteration von Hardware ein kostspieliges und zeitraubendes Unterfangen ist, ist dies eine monumentale Ansage.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/OjzATbgg5sc?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/OjzATbgg5sc/hqdefault.jpg"
srcset="https://img.youtube.com/vi/OjzATbgg5sc/mqdefault.jpg 320w,
https://img.youtube.com/vi/OjzATbgg5sc/hqdefault.jpg 480w,
https://img.youtube.com/vi/OjzATbgg5sc/sddefault.jpg 640w,
https://img.youtube.com/vi/OjzATbgg5sc/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;h3 id="vom-nischenlabor-zum-infrastruktur-akteur"&gt;Vom Nischenlabor zum „Infrastruktur-Akteur“&lt;/h3&gt; &lt;p&gt;Die 7,2-Millionen-Dollar-Runde, angeführt vom &lt;strong&gt;Visionaries Club&lt;/strong&gt; unter Beteiligung von &lt;strong&gt;Day One Capital&lt;/strong&gt; und Business Angels von KI-Schwergewichten wie &lt;strong&gt;OpenAI&lt;/strong&gt; und &lt;strong&gt;Hugging Face&lt;/strong&gt;, ist ein deutlicher Vertrauensbeweis. Es ist die Erkenntnis, dass ohne bessere Hardware die gesamte brillante KI der Welt in schwerfälligen, unpraktischen Körpern gefangen bleiben wird. „Hardware bleibt einer der wichtigsten Flaschenhälse in der Robotik“, sagt Marton Sarkadi Nagy, Partner beim Visionaries Club. „Wir werden das Ziel nicht erreichen, wenn die Hardware nicht stimmt.“&lt;/p&gt;
&lt;p&gt;Allonic versucht nicht zwangsläufig, selbst den nächsten Atlas oder Optimus zu bauen. Stattdessen sieht sich das Unternehmen als „Infrastruktur-Akteur“, der das fertigungstechnische Rückgrat für die gesamte Robotikindustrie liefert. Das Geschäftsmodell sieht vor, dass Kunden maßgeschneiderte Roboterkörper auf der Plattform von Allonic entwerfen, die das Unternehmen dann produziert und liefert. Ein Pilotprojekt in der Elektronikfertigung wurde bereits abgeschlossen – ein Sektor, der händeringend nach Manipulatoren sucht, die geschickter als einfache Greifer, aber kostengünstiger als ein kompletter Humanoid sind.&lt;/p&gt;
&lt;p&gt;Das Unternehmen stößt zudem auf großes Interesse bei Firmen für humanoide Robotik und Tech-Giganten, die verstanden haben, dass die Skalierung ihrer ehrgeizigen Projekte davon abhängt, den Code der Fertigung zu knacken.&lt;/p&gt;
&lt;h3 id="das-ende-der-montage-wie-wir-sie-kennen"&gt;Das Ende der Montage, wie wir sie kennen?&lt;/h3&gt; &lt;p&gt;Natürlich machen eine rekordverdächtige Pre-Seed-Runde und eine schicke Demo noch keine Revolution. Der Weg von einem brillanten Fertigungsprozess zu einem weltweiten Industriestandard ist weit und voller Gefahren. Allonic muss beweisen, dass seine „gewebten“ Gliedmaßen den Strapazen des industriellen Einsatzes standhalten, die Präzision traditionell gefertigter Teile erreichen und zu Kosten produziert werden können, die in großem Maßstab wirtschaftlich sinnvoll sind.&lt;/p&gt;
&lt;p&gt;Dennoch ist das Konzept unbestreitbar bestechend. Indem Allonic das am wenigsten glamouröse, aber grundlegendste Problem der Robotik angeht, setzt das Startup ein mutiges Zeichen. Während die Welt vom „Geist in der Maschine“ fasziniert ist, baut dieses ungarische Startup die Maschine selbst neu. Wenn sie Erfolg haben, wird die Zukunft der Robotik vielleicht nicht mit dem Schraubenzieher montiert, sondern auf einem Webstuhl erschaffen.&lt;/p&gt;</content:encoded><category>Robotik</category><category>Startups</category><category>Fertigung</category><category>allonic</category><category>roboter-koerper</category><category>3d-tissue-braiding</category><category>automatisierung</category><category>hungarian-tech</category><category>venture-capital</category><media:content url="https://robohorizon.de/images/shared/magazine/2026-03-07-image001-dd75cd0f.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>KI-Sim: 10-Minuten-Robotik-Tasks mit 15 FPS auf RTX 4090</title><link>https://robohorizon.de/de/news/2026/03/ki-simulation-rtx-4090-robotik/</link><pubDate>Sat, 07 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/ki-simulation-rtx-4090-robotik/</guid><description>Der Interactive World Simulator bietet stabile Physik-Simulationen für Roboter bei 15 FPS auf einer RTX 4090 – ein Meilenstein für das KI-Training.</description><content:encoded>&lt;p&gt;Weltmodelle in der Robotik haben oft ein Problem: Bei längeren Simulationen verlieren sie ihre physikalische Integrität schneller als ein Kartenhaus im Wind. Doch das neue Projekt &lt;strong&gt;Interactive World Simulator&lt;/strong&gt; schickt sich an, diese Schwäche endgültig auszumerzen. Die Zahlen klingen fast zu gut, um wahr zu sein: Über 10 Minuten stabile, interaktive Videovorhersagen bei flüssigen 15 FPS – und das Ganze läuft auf einer einzigen &lt;strong&gt;NVIDIA, Inc.&lt;/strong&gt; RTX 4090. Richtig gelesen: Zehn Minuten komplexe Physik, berechnet auf einer handelsüblichen GPU.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/yxwangbot/status/2029608309960130624"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Entwickelt vom Forscher Yixuan Wang, ist dieses aktionsgesteuerte Weltmodell weit mehr als nur ein vorgerendertes Video. Es ist eine voll interaktive Simulation, die man in Echtzeit „steuern“ kann. Der Clou: Man kann es direkt im Browser ausprobieren – ganz ohne Python-Bibliotheken oder das gefürchtete &lt;code&gt;pip install&lt;/code&gt;-Chaos. Das Modell meistert selbst Aufgaben mit komplexen Kontaktpunkten, von der präzisen Kabelverlegung bis hin zum Zusammenkehren von Objekthaufen. Dabei entsteht alles rein im Pixelraum. Das sind keine Aufnahmen einer echten Kamera, sondern rein generative Vorhersagen des Modells.&lt;/p&gt;
&lt;h4 id="warum-ist-das-ein-game-changer"&gt;Warum ist das ein Game-Changer?&lt;/h4&gt; &lt;p&gt;Hier geht es nicht nur um eine beeindruckende Tech-Demo, sondern um die Lösung für zwei der größten Kopfschmerzen in der Robotik-Entwicklung. Erstens ermöglicht das Modell eine &lt;em&gt;skalierbare Datengenerierung&lt;/em&gt;. Statt auf langsame und teure Roboter in der echten Welt angewiesen zu sein, können Entwickler nun gigantische Mengen an physikalisch plausiblen Trainingsdaten direkt im Simulator erzeugen. Zweitens erlaubt es eine &lt;em&gt;verlässliche Policy-Evaluierung&lt;/em&gt;. Forscher können das „Gehirn“ eines Roboters in einer sicheren, konsistenten und endlos wiederholbaren virtuellen Umgebung testen und verfeinern, bevor sie überhaupt ein Stück Hardware berühren. Kurz gesagt: Das Training von Robotern wird billiger, schneller und das Risiko, dass ein sündhaft teurer Roboterarm ein Loch in die Laborwand schlägt, sinkt drastisch.&lt;/p&gt;</content:encoded><category>News</category><category>KI</category><category>Robotik</category><category>world-model</category><category>robotik-simulation</category><category>ki-training</category><category>nvidia</category><category>rtx-4090</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-07-image-fdee9e74.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Origami Robotics: Datenhandschuh lehrt KI Fingerspitzengefühl</title><link>https://robohorizon.de/de/news/2026/03/origami-robotics-ki-finger/</link><pubDate>Sat, 07 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/news/2026/03/origami-robotics-ki-finger/</guid><description>Origami Robotics löst das Problem der KI-Geschicklichkeit mit einer high-DOF Roboterhand und einem perfekt abgestimmten Datenhandschuh für präzises Training.</description><content:encoded>&lt;p&gt;Der Begriff „Embodiment Gap“ ist eigentlich nur eine hochtrabende Art zu sagen, dass selbst die fortschrittlichsten KI-Roboter momentan noch zwei linke Hände haben. &lt;strong&gt;Origami Robotics, Inc.&lt;/strong&gt;, ein frischer Absolvent des renommierten &lt;strong&gt;Y Combinator&lt;/strong&gt;-Accelerators, geht dieses Problem nicht mit noch mehr Code an, sondern mit überlegener Hardware. Das Startup hat eine Roboterhand mit extrem vielen Freiheitsgraden (DOF) und einen passenden Datenhandschuh entwickelt – ein perfekt aufeinander abgestimmtes „Digital Twin“-System, das Robotern beibringen soll, wie man in der echten Welt zupackt.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/ycombinator/status/2029678343629476249"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Das Kernproblem der robotischen Geschicklichkeit sind Daten – genauer gesagt die massive Kluft zwischen der Bewegung einer menschlichen Hand und der eines mechanischen Greifers. Einen Roboter mit Videos von Menschen zu trainieren, ist ineffizient, und reine Simulationsdaten scheitern oft an der harten Realität. Die Lösung von Origami ist entwaffnend direkt: Die Roboterhand und der Datenhandschuh sind hardwareseitig eine Eins-zu-eins-Kopie. Das ermöglicht es einem menschlichen Operator, hochpräzise, perfekt gemappte Trainingsdaten zu generieren, indem er die Aufgabe einfach selbst ausführt. Es ist das klassische „Garbage in, garbage out“-Problem – und Origami will sicherstellen, dass die KI ausschließlich mit Daten auf Michelin-Sterne-Niveau gefüttert wird.&lt;/p&gt;
&lt;p&gt;Die Ambition des Unternehmens ist der Aufbau eines „Manipulate anything“-Modells. Ziel ist es, diese geschickten Finger in Fabriken, Logistikzentren und Forschungslaboren zu etablieren. Dass sie kein gewöhnliches Startup mit einem schicken Handschuh sind, beweist die Kundenliste: Origami liefert bereits Hardware an die ganz Großen aus – Berichten zufolge gehören die Physical AI Labs von &lt;strong&gt;Amazon&lt;/strong&gt; zu den ersten Kunden.&lt;/p&gt;
&lt;h4 id="warum-ist-das-wichtig"&gt;Warum ist das wichtig?&lt;/h4&gt; &lt;p&gt;Während die Branche gebannt auf zweibeinige Roboter starrt, die Rückwärtssaltos machen, löst Origami Robotics im Stillen das weitaus weniger glamouröse – und wohl deutlich schwierigere – Problem der Manipulation. Geschickte Hände sind derzeit der kritische Flaschenhals für Allzweckroboter. Durch ein System, das die Erfassung hochwertiger Daten drastisch vereinfacht, baut Origami nicht nur eine bessere Hand; sie erschaffen potenziell ein Basisinstrument, das das gesamte Feld beschleunigen könnte. Ihr Hardware-First-Ansatz für ein Datenproblem könnte es jedem Robotik-Unternehmen ermöglichen, die mühsame Hürde zu überspringen, ihrer KI das Greifen beizubringen.&lt;/p&gt;</content:encoded><category>News</category><category>Robotik</category><category>KI</category><category>origami-robotics</category><category>y-combinator</category><category>roboterhand</category><category>ki-training</category><category>feinmotorik</category><media:content url="https://robohorizon.de/images/shared/news/2026-03-07-image-060d7c54.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item><item><title>Cortical Labs: Menschliche Gehirnzellen steuern jetzt LLMs</title><link>https://robohorizon.de/de/magazine/2026/03/cortical-labs-gehirnzellen-llm/</link><pubDate>Thu, 05 Mar 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.de/de/magazine/2026/03/cortical-labs-gehirnzellen-llm/</guid><description>Nach dem DOOM-Erfolg verbindet Cortical Labs gezüchtete Neuronen mit einem LLM. Biologische Impulse generieren nun Texte – die Ära der Wetware beginnt.</description><content:encoded>&lt;p&gt;Gerade als man dachte, der KI-Hype-Zyklus könne nicht noch surrealer werden, entscheidet sich ein Unternehmen in Australien dazu, die GPUs links liegen zu lassen und eine KI stattdessen direkt an ein lebendes, biologisches Gehirn anzustöpseln. Nun ja, zumindest so ähnlich. &lt;strong&gt;Cortical Labs&lt;/strong&gt;, die Biotech-Schmiede, die zuvor bereits einer Petrischale mit rund 800.000 menschlichen Neuronen beigebracht hat, den Videospiel-Klassiker &lt;em&gt;Pong&lt;/em&gt; zu meistern, ist zu höheren Aufgaben übergegangen. Nachdem sie erfolgreich eine neue Charge von 200.000 Neuronen durch die dämonenverseuchten Korridore von &lt;em&gt;DOOM&lt;/em&gt; gejagt haben, wurde das &amp;ldquo;DishBrain&amp;rdquo; nun mit einem Large Language Model (LLM) verkabelt.&lt;/p&gt;
&lt;p&gt;Richtig gelesen: Echte, lebende menschliche Gehirnzellen, die elektrische Impulse auf einem Silizium-Chip abfeuern, wählen jetzt die Worte aus, die eine KI spricht. Das ist nicht bloß ein weiterer kleiner Schritt im Bereich Machine Learning; es ist ein bizarrer, faszinierender und leicht unheimlicher Quantensprung in die Welt der &amp;ldquo;Wetware&amp;rdquo; und des biologischen Computings. Und offen gesagt: Dagegen wirkt Ihr durchschnittlicher Chatbot in etwa so fortschrittlich wie ein Taschenrechner aus den Neunzigern.&lt;/p&gt;
&lt;h3 id="von-verpixelten-paddeln-zu-höllischen-landschaften"&gt;Von verpixelten Paddeln zu höllischen Landschaften&lt;/h3&gt; &lt;p&gt;Um zu verstehen, wie wir an den Punkt gekommen sind, an dem Gehirnzellen Texte mitverfassen, müssen wir einen Blick auf die bisherigen Erfolge von &lt;strong&gt;Cortical Labs&lt;/strong&gt; werfen. Im Jahr 2022 sorgte das Team aus Melbourne mit seinem &amp;ldquo;DishBrain&amp;rdquo;-Experiment weltweit für Schlagzeilen. Sie züchteten Neuronen auf einem Mikroelektroden-Array, das die Zellen sowohl stimulieren als auch deren Aktivität auslesen konnte. Indem elektrische Signale gesendet wurden, um die Position des Balls in &lt;em&gt;Pong&lt;/em&gt; anzuzeigen, lernten die Neuronen innerhalb von nur fünf Minuten, ihre Impulse so zu steuern, dass sie das Paddel bewegten – ein beeindruckender Beweis für zielgerichtetes Lernen in einer synthetischen biologischen Intelligenz.&lt;/p&gt;
&lt;p&gt;Doch &lt;em&gt;Pong&lt;/em&gt; ist quasi der Kindergarten der Informatik. In der Tech-Welt gibt es ein ungeschriebenes Gesetz, um neue Hardware zu bewerten: &amp;ldquo;Can it run &lt;em&gt;DOOM&lt;/em&gt;?&amp;rdquo; Also tat &lt;strong&gt;Cortical Labs&lt;/strong&gt; genau das. Der Sprung von der simplen 2D-Welt von &lt;em&gt;Pong&lt;/em&gt; in die komplexe 3D-Umgebung von &lt;em&gt;DOOM&lt;/em&gt; ist gewaltig; er erfordert räumliche Orientierung, Gefahrenerkennung und blitzschnelle Entscheidungsfindung. Und doch: Die Neuronen lernten. Der Video-Feed des Spiels wurde in elektrische Stimulationsmuster übersetzt, und die Reaktionen der Neuronen wurden in In-Game-Aktionen wie Bewegen und Schießen dekodiert. Auch wenn die Performance eher an einen stolpernden Anfänger als an einen E-Sport-Profi erinnerte, war bewiesen: Das System kann weitaus komplexere, dynamischere Aufgaben bewältigen.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/corticallabs/status/2027118584779231241"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h3 id="ein-biologischer-geist-in-der-maschine"&gt;Ein biologischer Geist in der Maschine&lt;/h3&gt; &lt;p&gt;Nachdem die Klassiker der Videospielgeschichte bezwungen waren, war der nächste logische Schritt offenbar, den Neuronen eine Stimme zu geben. Das neueste Experiment, das unter anderem von Tech-Vordenkern wie Robert Scoble präsentiert wurde, zeigt die Schnittstelle zwischen den Gehirnzellen und einem LLM. Anstatt ein Paddel oder einen Space Marine zu steuern, werden die elektrischen Impulse der Neuronen nun genutzt, um jedes &amp;ldquo;Token&amp;rdquo; – also Buchstaben oder Wörter – auszuwählen, das die KI generiert.&lt;/p&gt;
&lt;p&gt;Ein exklusiver Video-Einblick zeigt den Prozess in Aktion: Ein Raster visualisiert die stimulierten Kanäle und das entsprechende Feedback der Neuronen, während sie kollektiv darüber &amp;ldquo;entscheiden&amp;rdquo;, welcher Textbaustein als Nächstes folgt. Es ist ein ungeschönter Blick auf biologische Materie, die eine kognitive Aufgabe erfüllt, welche bis dato das exklusive Territorium komplexer Algorithmen auf stromfressenden Silizium-Clustern war.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&amp;ldquo;Wir haben gezeigt, dass wir mit lebenden biologischen Neuronen so interagieren können, dass sie gezwungen sind, ihre Aktivität anzupassen, was zu etwas führt, das Intelligenz ähnelt&amp;rdquo;, erklärte Dr. Brett Kagan, Chief Scientific Officer von &lt;strong&gt;Cortical Labs&lt;/strong&gt;, bereits im Rahmen früherer Arbeiten.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Diese neue Entwicklung hebt diese Interaktion auf ein völlig neues Level. Es ist eine Sache, auf einen abprallenden Ball zu reagieren; es ist eine völlig andere, aktiv an der Konstruktion von Sprache teilzunehmen.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/scobleizer/status/1716312250422796590"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h3 id="warum-der-ganze-aufwand-mit-den-gehirnzellen"&gt;Warum der ganze Aufwand mit den Gehirnzellen?&lt;/h3&gt; &lt;p&gt;An diesem Punkt stellt sich die berechtigte Frage: Warum sollte man sich die Mühe machen, 200.000 Neuronen in einer Schale am Leben zu erhalten, wenn eine High-End-GPU ein LLM problemlos ausführen kann? Die Antwort liegt in der Effizienz und den fundamentalen Grenzen von Silizium. Das menschliche Gehirn vollbringt atemberaubende Rechenleistungen mit gerade einmal 20 Watt Leistung – das entspricht etwa einer schwachen Glühbirne. Ein Supercomputer, der versucht, dieselbe Aktivität zu simulieren, benötigt unter Umständen millionenfach mehr Energie.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Cortical Labs&lt;/strong&gt; und andere Pioniere auf diesem Gebiet setzen darauf, dass diese unglaubliche Energieeffizienz nutzbar gemacht werden kann. Biologische Systeme sind Meister im Parallel-Processing und adaptiven Lernen – Bereiche, in denen traditionelle, deterministische Binär-Computer oft an ihre Grenzen stoßen. Durch die Verschmelzung von lebenden Neuronen mit Silizium erschaffen sie eine hybride Computing-Architektur, die eines Tages Systeme antreiben könnte, die schneller lernen und nur einen Bruchteil der Energie verbrauchen.&lt;/p&gt;
&lt;p&gt;Dabei geht es nicht nur um den Bau eines besseren Chatbots. Das Team von &lt;strong&gt;Cortical Labs&lt;/strong&gt; unter der Leitung von CEO Dr. Hon Weng Chong sieht eine Zukunft, in der diese Technologie die Robotik, die personalisierte Medizin und die Medikamentenforschung revolutioniert. Stellen Sie sich einen Roboter vor, der nicht nur vorprogrammierte Befehle ausführt, sondern mit der fluiden Intelligenz eines biologischen Systems lernt, sich in neuen Umgebungen zurechtzufinden. Oder denken Sie an die Möglichkeit, die Neuronen eines Patienten auf einem Chip zu züchten, um die Wirksamkeit von Medikamenten gegen neurologische Erkrankungen wie Epilepsie zu testen, ohne den Patienten selbst zu gefährden.&lt;/p&gt;
&lt;p&gt;Der Weg dorthin ist noch weit. Biologische Systeme sind hochkomplex und oft unberechenbar – das genaue Gegenteil der zuverlässigen Konsistenz von Silizium. Doch wie &lt;strong&gt;Cortical Labs&lt;/strong&gt; eindrucksvoll bewiesen hat, hat sich ein Zellhaufen in einer Schale bereits vom Videospieler zum Sprecher gewandelt. Die Vorstellung, dass dieselben Neuronen eines Tages einen Roboter steuern, ist längst keine Science-Fiction mehr – sie steht als nächster Punkt auf der Roadmap. Und das ist ein Gedanke, der gleichermaßen elektrisierend wie beängstigend ist.&lt;/p&gt;</content:encoded><category>KI</category><category>Biotechnologie</category><category>Robotik</category><category>cortical-labs</category><category>brain-computer-interface</category><category>llm</category><category>biological-computing</category><category>neuronen</category><category>doom</category><media:content url="https://robohorizon.de/images/shared/magazine/2026-03-05-image-bd817a4a.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>de</dc:language></item></channel></rss>