<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:language="http://purl.org/dc/elements/1.1/language" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>RoboHorizon Robot Magazine - AI you can touch</title><link>https://robohorizon.eu/fr/</link><description>Une boussole dans les technologies modernes liées à la robotique, servant les secteurs professionnels et privés avec des actualités, des analyses complètes et des tests.</description><generator>Hugo -- gohugo.io</generator><language>fr</language><lastBuildDate>Sun, 19 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://robohorizon.eu/fr/index.xml" rel="self" type="application/rss+xml"/><item><title>IA de Ant Group transforme des vidéos en mondes 3D en temps réel</title><link>https://robohorizon.eu/fr/news/2026/04/ia-ant-group-video-3d-temps-reel/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/ia-ant-group-video-3d-temps-reel/</guid><description>Robbyant de Ant Group lance LingBot-Map, un modèle pour créer des reconstructions 3D détaillées depuis une vidéo en temps réel à 20 FPS.</description><content:encoded>&lt;p&gt;Alors que vous pensiez que l&amp;rsquo;appareil photo de votre smartphone ne servait qu&amp;rsquo;à immortaliser des souvenirs de concerts flous, des chercheurs viennent de le transformer en un véritable scanner 3D en temps réel. &lt;strong&gt;Robbyant&lt;/strong&gt;, la division dédiée à l&amp;rsquo;IA incarnée (&lt;em&gt;embodied AI&lt;/em&gt;) d&amp;rsquo;&lt;strong&gt;Ant Group&lt;/strong&gt;, vient de lancer en open-source &lt;strong&gt;LingBot-Map&lt;/strong&gt;, un nouveau modèle de fondation 3D capable de reconstruire des environnements complexes et à grande échelle à partir d&amp;rsquo;un simple flux vidéo. Le plus impressionnant ? Il tourne à une cadence de 20 images par seconde, une prouesse qui fait passer les méthodes de photogrammétrie traditionnelles pour de la figuration.&lt;/p&gt;
&lt;p&gt;Le secret de cette rapidité réside dans une architecture inédite baptisée &lt;strong&gt;Geometric Context Transformer (GCT)&lt;/strong&gt;. Il ne s&amp;rsquo;agit pas d&amp;rsquo;un simple module &lt;em&gt;transformer&lt;/em&gt; greffé sur un problème de vision. Le GCT a été spécifiquement conçu pour s&amp;rsquo;attaquer au talon d&amp;rsquo;Achille des systèmes SLAM monoculaires (à caméra unique) : la dérive. Il gère intelligemment les données géométriques grâce à trois mécanismes d&amp;rsquo;attention parallèles : un contexte ancré pour stabiliser les coordonnées, une fenêtre de référence de pose locale pour la précision des détails, et une mémoire de trajectoire pour corriger les erreurs sur les longues distances. Cela permet à LingBot-Map de traiter des séquences dépassant les 10 000 images avec une précision que Robbyant qualifie de « quasi inchangée ». Le projet est d&amp;rsquo;ores et déjà disponible sur GitHub. Lien : &lt;a href="https://github.com/Robbyant/lingbot-map"&gt;Robbyant/lingbot-map&lt;/a&gt;&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/news/2026-04-19-original-2-c9f366e2_hu_75236fc4fd1052dc.webp"
srcset="https://robohorizon.com/images/shared/news/2026-04-19-original-2-c9f366e2_hu_75236fc4fd1052dc.webp 480w, https://robohorizon.com/images/shared/news/2026-04-19-original-2-c9f366e2_hu_4950aadb093c6f23.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="A diagram showing the Geometric Context Transformer architecture of LingBot-Map."
loading="lazy"
width="480"
height="226"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;Les performances annoncées sont, disons-le franchement, audacieuses. Sur le très exigeant jeu de données Oxford Spires, LingBot-Map affiche une erreur de trajectoire absolue de seulement 6,42 mètres, soit une amélioration de près de 2,8x par rapport à la meilleure méthode de streaming actuelle. Il surpasse même des solutions de traitement hors-ligne pourtant bien plus gourmandes en ressources. Sur le benchmark ETH3D, il a obtenu un score F1 de 98,98, pulvérisant le second de plus de 21 points. Pour les amateurs de détails techniques pointus, la méthodologie complète est détaillée dans un article publié sur arXiv. Lien : &lt;a href="https://arxiv.org/abs/2604.14141"&gt;Lire l&amp;rsquo;article sur arXiv&lt;/a&gt;&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-révolution-"&gt;Pourquoi est-ce une révolution ?&lt;/h4&gt; &lt;p&gt;LingBot-Map marque une étape cruciale vers la démocratisation de l&amp;rsquo;intelligence spatiale. En éliminant le besoin de capteurs LiDAR onéreux ou de systèmes multicaméras complexes, il ouvre la voie à une perception 3D haute performance et à bas coût pour la robotique, les véhicules autonomes et la réalité augmentée. Il ne s&amp;rsquo;agit pas seulement de générer de jolis nuages de points, mais d&amp;rsquo;offrir aux machines une compréhension continue et en temps réel du monde physique. En tant que « modèle de fondation 3D », il s&amp;rsquo;inscrit dans cette tendance lourde de l&amp;rsquo;IA : créer des systèmes qui ne se contentent pas de traiter du texte ou des images, mais qui perçoivent, naviguent et interagissent avec des environnements complexes et non structurés — la pierre angulaire du futur de l&amp;rsquo;IA incarnée.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>autonomous</category><category>research</category><category>business</category><category>open-source</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-19-image-1-c9f366e2.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Un robot bat le record du monde au semi-marathon de Pékin</title><link>https://robohorizon.eu/fr/magazine/2026/04/robot-bat-record-du-monde-semi-marathon-pekin/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/magazine/2026/04/robot-bat-record-du-monde-semi-marathon-pekin/</guid><description>Un robot humanoïde a couru 21km en 50 minutes, battant le record mondial. Découvrez comment la technologie a atteint cette vitesse en un an seulement.</description><content:encoded>&lt;p&gt;Soyons directs : un robot humanoïde vient de boucler un semi-marathon plus vite que n&amp;rsquo;importe quel être humain dans l&amp;rsquo;histoire. Lors du semi-marathon de Pékin pour robots humanoïdes, ce 19 avril 2026, une machine nommée « Flash » (ou « Lightning »), conçue par le géant du smartphone &lt;strong&gt;Honor&lt;/strong&gt;, a parcouru les 21,0975 kilomètres en un temps stratosphérique de 50 minutes et 26 secondes. Ce chrono pulvérise littéralement le record du monde masculin officiel, qui stagne à 57 minutes et 20 secondes.&lt;/p&gt;
&lt;p&gt;On ne parle pas ici d&amp;rsquo;une simple amélioration technique, mais d&amp;rsquo;un bond de géant qui ridiculise les résultats de l&amp;rsquo;an dernier. La première édition, en 2025, tenait plus du bêtisier technologique que de la performance athlétique : un robot s&amp;rsquo;était étalé de tout son long quelques secondes après le coup de feu, un autre avait fini dans le décor, et le chouchou du public, un petit bot baptisé « Little Giant », avait commencé à fumer en plein effort. Le vainqueur de cette foire d&amp;rsquo;empoigne, le &lt;strong&gt;Tiangong Ultra&lt;/strong&gt;, avait terminé en 2 heures, 40 minutes et 42 secondes — une prouesse pour l&amp;rsquo;époque, mais une éternité comparée aux performances humaines. En seulement douze mois, nous sommes passés du burlesque au surhumain.&lt;/p&gt;
&lt;h3 id="une-année-de-progrès-fulgurants"&gt;Une année de progrès fulgurants&lt;/h3&gt; &lt;p&gt;Alors, comment expliquer un tel saut ? C’est le résultat d’une accélération brutale, mêlant puissance matérielle et ambitions démesurées, portée par la stratégie industrielle agressive de la Chine. Si le « Flash » d’&lt;strong&gt;Honor&lt;/strong&gt; a raflé la couronne d’endurance, c’est tout le secteur qui a montré les crocs en termes de vitesse pure. Quelques jours avant la course, &lt;strong&gt;Unitree Robotics&lt;/strong&gt; faisait déjà sensation avec son &lt;strong&gt;H1&lt;/strong&gt;, capable de sprinter à 10,1 mètres par seconde sur piste, soit à un cheveu de la vitesse de pointe d&amp;rsquo;Usain Bolt. Cette cadence infernale, multipliée par trois en deux ans, prouve que la mécanique est en train de briser ses dernières chaînes physiques.&lt;/p&gt;
&lt;p&gt;Pour cette édition 2026, les organisateurs ont corsé les règles. Le nombre de participants a explosé, passant d&amp;rsquo;une vingtaine à plus de 300 robots issus de 100 équipes différentes. Surtout, l&amp;rsquo;accent a été mis sur l&amp;rsquo;autonomie. Près de 40 % des équipes concouraient dans la catégorie « autonomie totale », où le robot gère seul sa navigation et ses décisions. Pour bien marquer la différence, les robots télécommandés voyaient leur temps multiplié par un coefficient de 1,2 — une pénalité pour avoir gardé un humain dans la boucle. Le fait qu&amp;rsquo;un robot autonome ait gagné dans ces conditions est la véritable information : nous n&amp;rsquo;avons pas seulement construit une machine plus rapide, mais une machine plus intelligente.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/f6Fx73MJhdI?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/f6Fx73MJhdI/hqdefault.jpg"
srcset="https://img.youtube.com/vi/f6Fx73MJhdI/mqdefault.jpg 320w,
https://img.youtube.com/vi/f6Fx73MJhdI/hqdefault.jpg 480w,
https://img.youtube.com/vi/f6Fx73MJhdI/sddefault.jpg 640w,
https://img.youtube.com/vi/f6Fx73MJhdI/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;h3 id="plus-quune-course--un-casting-industriel"&gt;Plus qu&amp;rsquo;une course : un casting industriel&lt;/h3&gt; &lt;p&gt;Cet événement est bien loin du simple divertissement sportif ; c&amp;rsquo;est un casting commercial à haute tension. Le grand prix n&amp;rsquo;est pas un trophée, mais plus d&amp;rsquo;un million de yuans (environ 130 000 €) en commandes industrielles. E-Town, le hub technologique de Pékin qui accueille la course, a pensé ce marathon comme un accélérateur pour transformer des projets de recherche en produits de marché. Avec plus de 100 entreprises de robotique sur place et un fonds gouvernemental de 10 milliards de yuans, le message est limpide : prouvez que votre robot tient la route sur le bitume, et vous repartirez avec un bon de commande pour l&amp;rsquo;installer en usine.&lt;/p&gt;
&lt;p&gt;Dans cette optique, une nouvelle épreuve a vu le jour cette année : le « Robot Baturu Challenge ». Organisé la veille du marathon, ce défi a forcé les machines à traverser 17 parcours d&amp;rsquo;obstacles simulant des scénarios de sauvetage en zone sinistrée — franchissement de décombres, montée d&amp;rsquo;escaliers et gestion d&amp;rsquo;environnements complexes. L&amp;rsquo;objectif final ne se limite pas à la course à pied, mais vise la création de machines capables d&amp;rsquo;accomplir des tâches utiles et difficiles dans un monde humain non structuré. Vous pouvez d&amp;rsquo;ailleurs constater l&amp;rsquo;incroyable évolution de ces humanoïdes dans ce
&lt;a href="https://robohorizon.eu/fr/videos/des-robots-humanoides-courent-un-semi-marathon-test-ultime/" hreflang="fr"&gt;Des robots humanoïdes courent un semi-marathon : test ultime&lt;/a&gt;
.&lt;/p&gt;
&lt;h4 id="le-saut-technologique"&gt;Le saut technologique&lt;/h4&gt; &lt;p&gt;Cette progression fulgurante repose sur trois piliers techniques :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Matériel :&lt;/strong&gt; Un couple moteur amélioré dans les articulations, une meilleure efficacité énergétique et une gestion thermique de pointe. Le vainqueur d&amp;rsquo;Honor utiliserait un système de refroidissement liquide ultra-performant pour maintenir une cadence élevée sur 21 km.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Logiciel :&lt;/strong&gt; Des algorithmes de contrôle de mouvement plus robustes garantissent la stabilité sur des terrains variés, du bitume urbain aux sentiers de parcs.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Navigation :&lt;/strong&gt; Chaque robot était équipé d&amp;rsquo;un module de navigation par satellite BeiDou, offrant une précision centimétrique pour le suivi de trajectoire, indispensable pour l&amp;rsquo;autonomie.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="le-coup-denvoi-dune-nouvelle-ère"&gt;Le coup d&amp;rsquo;envoi d&amp;rsquo;une nouvelle ère&lt;/h3&gt; &lt;p&gt;Il est tentant de ne retenir que ce chrono de 50 minutes. Mais la véritable nouvelle, c&amp;rsquo;est la vitesse de progression de la technologie. En une seule année, le temps du vainqueur a été réduit de près de deux heures. La compétition est passée d&amp;rsquo;une curiosité technologique où finir la course était déjà une victoire à un véritable affrontement athlétique où la machine surpasse désormais le sommet des capacités humaines.&lt;/p&gt;
&lt;p&gt;Certes, il y a encore eu quelques ratés — un robot a chuté au départ, un autre a percuté une barrière — mais le niveau global n&amp;rsquo;a plus rien à voir avec celui de 2025. La question n&amp;rsquo;est plus de savoir &lt;em&gt;si&lt;/em&gt; les humanoïdes peuvent accomplir des tâches dynamiques complexes, mais à quelle vitesse ils vont les maîtriser. Le semi-marathon de Pékin 2026 n&amp;rsquo;était pas qu&amp;rsquo;une simple course ; c&amp;rsquo;était le coup d&amp;rsquo;envoi d&amp;rsquo;une ère où la supériorité physique des robots n&amp;rsquo;est plus un fantasme de science-fiction, mais une réalité prête à conquérir le monde. Le reste de la planète est prévenu.&lt;/p&gt;</content:encoded><category>humanoids</category><category>autonomous</category><category>business</category><category>research</category><category>policy</category><media:content url="https://robohorizon.eu/images/shared/magazine/2026-04-19-image001-1d819d2c.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Gemini 1.6 de DeepMind offre une réalité interactive aux robots</title><link>https://robohorizon.eu/fr/news/2026/04/gemini-1-6-deepmind-robots-realite-interactive/</link><pubDate>Thu, 16 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/gemini-1-6-deepmind-robots-realite-interactive/</guid><description>Le nouveau modèle Gemini Robotics-ER 1.6 de Google DeepMind améliore la vision et la sécurité des robots pour une meilleure compréhension du monde physique.</description><content:encoded>&lt;p&gt;&lt;strong&gt;Google DeepMind&lt;/strong&gt; vient de lever le voile sur &lt;strong&gt;Gemini Robotics-ER 1.6&lt;/strong&gt;, la toute dernière itération de son modèle de &amp;ldquo;raisonnement incarné&amp;rdquo; (Embodied Reasoning), conçue pour injecter aux robots une bonne dose de ce bon sens si crucial pour appréhender le monde physique. Cette nouvelle mouture décuple significativement la capacité d&amp;rsquo;un robot à voir, comprendre et interagir avec son environnement, le propulsant bien au-delà de la simple exécution d&amp;rsquo;ordres préprogrammés pour le faire véritablement raisonner sur ses tâches.&lt;/p&gt;
&lt;p&gt;Au cœur de cette mise à jour de Gemini Robotics-ER 1.6, on trouve une compréhension visuelle et spatiale affûtée, illustrée de manière éclatante par sa nouvelle capacité à &amp;ldquo;pointer du doigt&amp;rdquo;. Demandez-lui de dénicher un outil précis dans un atelier en désordre, et le modèle est désormais capable d&amp;rsquo;identifier, de compter et de localiser avec une précision chirurgicale les éléments pertinents, tout en ignorant les intrus. Ce n&amp;rsquo;est pas seulement une question de détection ; c&amp;rsquo;est la pierre angulaire d&amp;rsquo;une logique spatiale bien plus complexe, comme l&amp;rsquo;élaboration de trajectoires pour une préhension parfaite ou la compréhension d&amp;rsquo;instructions relationnelles du type &amp;ldquo;déplace la clé à molette dans la boîte à outils&amp;rdquo;. Le modèle peut même raisonner sur des contraintes, par exemple en identifiant tous les objets suffisamment petits pour tenir dans un conteneur désigné.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/GoogleDeepMind/status/2044069878781390929"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Le modèle s&amp;rsquo;attaque également à un défi chronique en robotique : savoir quand une tâche est réellement achevée. Grâce à un raisonnement multi-vue avancé, Gemini Robotics-ER 1.6 peut fusionner les flux vidéo en direct de plusieurs caméras – par exemple, une caméra zénithale et une autre fixée au poignet – pour construire une image complète de la scène. Cela évite qu&amp;rsquo;un robot ne se retrouve bloqué dans une boucle ou n&amp;rsquo;échoue une tâche simplement parce qu&amp;rsquo;un objet est temporairement masqué d&amp;rsquo;un point de vue.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/news/2026-04-16-image002-2-97b1b484_hu_4bd6010cd50f256c.webp"
srcset="https://robohorizon.com/images/shared/news/2026-04-16-image002-2-97b1b484_hu_4bd6010cd50f256c.webp 480w, https://robohorizon.com/images/shared/news/2026-04-16-image002-2-97b1b484_hu_dd8536ae17daec37.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Un diagramme illustrant comment Gemini Robotics-ER 1.6 traite les flux de caméras multi-vues pour confirmer l&amp;#39;achèvement d&amp;#39;une tâche."
loading="lazy"
width="480"
height="270"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;h4 id="pourquoi-est-ce-si-crucial-"&gt;Pourquoi est-ce si crucial ?&lt;/h4&gt; &lt;p&gt;Cette mise à jour est bien plus qu&amp;rsquo;une simple amélioration incrémentale des performances ; il s&amp;rsquo;agit de poser les bases des compétences fondamentales pour l&amp;rsquo;autonomie. La capacité à lire des cadrans analogiques, à fusionner plusieurs flux de caméras et à comprendre des relations spatiales complexes, voilà ce qui distingue un bras robotisé d&amp;rsquo;usine d&amp;rsquo;un robot de terrain véritablement utile. Selon l&amp;rsquo;&lt;a href="https://deepmind.google/blog/gemini-robotics-er-1-6/"&gt;annonce officielle&lt;/a&gt; de DeepMind, il s&amp;rsquo;agit de leur modèle robotique le plus sûr à ce jour.&lt;/p&gt;
&lt;p&gt;Et c&amp;rsquo;est peut-être le plus crucial : Gemini Robotics-ER 1.6 démontre une &amp;ldquo;capacité considérablement améliorée&amp;rdquo; à respecter les contraintes de sécurité physiques. Il comprend des instructions comme éviter les liquides ou ne pas soulever d&amp;rsquo;objets de plus de 20 kg. Comparé au modèle de référence Gemini 3.0 Flash, il serait 10 % plus performant dans la perception des risques de blessures humaines dans les vidéos. Cette focalisation sur la sécurité et le raisonnement en situation réelle est une étape cruciale vers des robots capables de fonctionner de manière fiable et sûre dans des environnements humains imprévisibles. Le modèle est déjà accessible aux développeurs via l&amp;rsquo;API Gemini et Google AI Studio.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/GoogleDeepMind/status/2044069883479007559"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;</content:encoded><category>robot-brains</category><category>research</category><category>business</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-16-image001-1-97b1b484.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Scientists Use Wall Outlet Frequency to Wirelessly Flip Genes in Mice</title><link>https://robohorizon.eu/fr/news/2026/04/chercheurs-activent-genes-souris-frequence-secteur/</link><pubDate>Thu, 16 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/chercheurs-activent-genes-souris-frequence-secteur/</guid><description>A Korean research team has developed a magnetogenetic switch using 60 Hz electromagnetic fields to turn genes on and off, reversing aging markers in mice.</description><content:encoded>&lt;p&gt;Dans une avancée qui semble tout droit sortie d&amp;rsquo;un manuscrit de science-fiction, des chercheurs sud-coréens ont mis au point une méthode pour activer sans fil des gènes spécifiques chez des souris vivantes, en utilisant simplement la fréquence de 60 Hz — celle-là même qui alimente nos prises électriques standard. Cette étude révolutionnaire, publiée dans la revue &lt;em&gt;Cell&lt;/em&gt;, introduit un interrupteur « magnétogénétique » non invasif qui pourrait transformer radicalement notre manière d&amp;rsquo;étudier et, à terme, de traiter les maladies.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;équipe, issue du &lt;strong&gt;Korea Advanced Institute of Science and Technology (KAIST)&lt;/strong&gt;, a démontré toute la puissance de ce système à travers des prouesses biologiques assez bluffantes. Grâce à leur dispositif électromagnétique, ils ont réussi à activer des gènes déclenchant une reprogrammation épigénétique chez des souris âgées, prolongeant ainsi leur durée de vie et inversant les marqueurs du vieillissement dans plusieurs tissus. Dans une autre expérience, ils ont pu activer à la demande des gènes amyloïdes mutants spécifiquement dans le cerveau de souris plus vieilles, créant ainsi un modèle d&amp;rsquo;étude de la maladie d&amp;rsquo;Alzheimer bien plus précis, débarrassé des variables perturbatrices liées au vieillissement naturel. Tout cela a été réalisé sans médicaments ni implants, par la simple force d&amp;rsquo;un champ magnétique contrôlé avec précision.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/zanehkoch/status/2044454878727311744"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Le mécanisme derrière cette « télécommande biologique » est aussi élégant que spécifique. Le champ électromagnétique basse fréquence est capté par une protéine nommée &lt;strong&gt;Cytochrome b5 type B (CYB5B)&lt;/strong&gt;. Cette interaction déclenche l&amp;rsquo;ouverture de canaux calciques voltage-dépendants, mais pas de n&amp;rsquo;importe quelle manière : au lieu d&amp;rsquo;une inondation chaotique, elle produit des impulsions rythmiques d&amp;rsquo;ions calcium. C&amp;rsquo;est cette oscillation bien précise qui active un facteur de transcription, &lt;strong&gt;SP7&lt;/strong&gt;, lequel vient ensuite se fixer sur une séquence d&amp;rsquo;ADN cible pour « allumer » le gène souhaité. Les chercheurs ont d&amp;rsquo;ailleurs constaté qu&amp;rsquo;une simple injection massive de calcium par d&amp;rsquo;autres méthodes n&amp;rsquo;avait aucun effet ; c&amp;rsquo;est le signal rythmé et structuré qui est la clé du verrou.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/news/2026-04-16-image002-2-c6b99f82_hu_d2837d8d1f59c933.webp"
srcset="https://robohorizon.com/images/shared/news/2026-04-16-image002-2-c6b99f82_hu_d2837d8d1f59c933.webp 480w, https://robohorizon.com/images/shared/news/2026-04-16-image002-2-c6b99f82_hu_d0fb7210590ee1e2.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Un schéma montrant comment une onde EMF de 60 Hz active la protéine Cyb5b, entraînant un flux de calcium et l&amp;#39;activation des gènes par le facteur de transcription Sp7."
loading="lazy"
width="480"
height="262"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;h4 id="pourquoi-est-ce-une-étape-majeure-"&gt;Pourquoi est-ce une étape majeure ?&lt;/h4&gt; &lt;p&gt;Ces travaux marquent un tournant décisif dans le contrôle biologique à distance. Si des techniques comme l&amp;rsquo;optogénétique (qui utilise la lumière pour contrôler les cellules) sont déjà puissantes, elles nécessitent souvent l&amp;rsquo;implantation invasive de fibres optiques pour acheminer la lumière au cœur des tissus. La &lt;strong&gt;magnétogénétique&lt;/strong&gt;, à l&amp;rsquo;inverse, s&amp;rsquo;appuie sur des champs basse fréquence capables de traverser le corps de manière totalement inoffensive et non invasive. Cela ouvre la voie à des thérapies qui pourraient être activées ou désactivées à la demande via un simple appareil externe.&lt;/p&gt;
&lt;p&gt;Les applications potentielles sont vertigineuses, de l&amp;rsquo;activation de processus régénératifs au ciblage ultra-précis de cellules cancéreuses. Bien que nous soyons encore loin d&amp;rsquo;une application thérapeutique chez l&amp;rsquo;homme, cette étude offre aux chercheurs un nouvel outil surpuissant et nous donne un aperçu d&amp;rsquo;un futur où piloter notre propre biologie pourrait être aussi simple que d&amp;rsquo;appuyer sur un interrupteur. Vous pouvez consulter l&amp;rsquo;intégralité de l&amp;rsquo;article dans &lt;em&gt;Cell&lt;/em&gt; : &lt;a href="https://www.cell.com/cell/abstract/S0092-8674%2826%2900330-2"&gt;A wirelessly controlled magnetogenetic gene switch for non-invasive programming of longevity and disease&lt;/a&gt;.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>bionics</category><category>research</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-16-image001-1-c6b99f82.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Les robots humanoïdes travaillent en usine électronique</title><link>https://robohorizon.eu/fr/news/2026/04/robots-humanoides-travaillent-en-usine-electronique/</link><pubDate>Wed, 15 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/robots-humanoides-travaillent-en-usine-electronique/</guid><description>AGIBOT et Longcheer Technology déploient des robots G2 sur une ligne de production réelle, passant de la démo à la réalité industrielle.</description><content:encoded>&lt;p&gt;Le futur tant promis — et souvent raillé — des robots humanoïdes pointant à l&amp;rsquo;usine vient officiellement de dépasser le stade du « bientôt ». La start-up chinoise &lt;strong&gt;AGIBOT&lt;/strong&gt; et le géant de la fabrication électronique &lt;strong&gt;Longcheer Technology&lt;/strong&gt; ont déployé plusieurs unités du modèle &lt;strong&gt;AGIBOT G2&lt;/strong&gt; sur une ligne de production d&amp;rsquo;électronique grand public bien réelle. Oubliez les vidéos de démonstration savamment éditées ; nous sommes ici face à une implémentation industrielle à grande échelle de ce que les deux entreprises baptisent l&amp;rsquo;« IA physique » (Physical AI).&lt;/p&gt;
&lt;p&gt;Équipés de roues pour plus d&amp;rsquo;agilité, les humanoïdes G2 s&amp;rsquo;activent désormais sur les lignes de production de tablettes de Longcheer. Leur mission : le chargement et le déchargement de précision sur les stations de test. Selon les rapports, l&amp;rsquo;intégration n&amp;rsquo;a pris que quatre mois, et les robots tournent déjà à plein régime, atteignant tous les objectifs de performance fixés. Pour prouver que le concept tient la route, un événement en direct a montré un robot G2 assurer un shift de 8 heures, traitant 310 unités par heure avec un taux de réussite insolent de plus de 99,5 %.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/humanoidsdaily/status/2043936572500828562"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Pour ceux qui l&amp;rsquo;ignoreraient, &lt;strong&gt;Longcheer Technology&lt;/strong&gt; est un mastodonte de l&amp;rsquo;ombre, un ODM (Original Design Manufacturer) qui assemble des appareils pour des marques mondiales comme &lt;strong&gt;Samsung&lt;/strong&gt;, &lt;strong&gt;Xiaomi&lt;/strong&gt; et &lt;strong&gt;Lenovo&lt;/strong&gt;. S&amp;rsquo;associer à un acteur de cette envergure offre à AGIBOT une validation immédiate sur le terrain, là où la plupart des start-ups de robotique ne font que rêver de bancs d&amp;rsquo;essai. L&amp;rsquo;objectif affiché est clair : passer à un déploiement de 100 robots d&amp;rsquo;ici le troisième trimestre 2026.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;&lt;strong&gt;AGIBOT G2&lt;/strong&gt; est un humanoïde de classe industrielle, doté de deux bras à 7 degrés de liberté (DoF) avec contrôle de force pour les tâches délicates, pour un total de 26 degrés de liberté sur l&amp;rsquo;ensemble de la machine. Sa base roulante lui permet de naviguer avec fluidité sur les sols d&amp;rsquo;usine. Conçu pour un fonctionnement en 24/7, il dispose de batteries remplaçables à chaud (&lt;em&gt;hot-swappable&lt;/em&gt;), une caractéristique absolument critique pour minimiser les temps d&amp;rsquo;arrêt dans la production de masse.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-un-tournant-"&gt;Pourquoi est-ce un tournant ?&lt;/h4&gt; &lt;p&gt;Ce déploiement marque une transition cruciale : on quitte les chorégraphies de laboratoire pour se confronter à la réalité brute et exigeante d&amp;rsquo;une usine de production de masse. Alors que d&amp;rsquo;autres acteurs du secteur en sont encore à peaufiner des prototypes, AGIBOT et Longcheer génèrent des données de production réelles et, vraisemblablement, de la valeur économique. Ce mouvement met une pression monumentale sur les autres joueurs du secteur des humanoïdes. Il prouve que la technologie, du moins pour des tâches manufacturières spécifiques, est prête pour le prime time commercial. L&amp;rsquo;ère de la robotique humanoïde vient de devenir beaucoup moins théorique.&lt;/p&gt;</content:encoded><category>humanoids</category><category>industrial</category><category>business</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-15-image-4e050761.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Wendy Labs lance un OS pour IA physique en open source</title><link>https://robohorizon.eu/fr/news/2026/04/wendy-labs-lance-un-os-pour-ia-physique-en-open-source/</link><pubDate>Wed, 15 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/wendy-labs-lance-un-os-pour-ia-physique-en-open-source/</guid><description>Wendy Labs lance Wendy un CLI open source pour simplifier le cycle de deploiement des applications IA sur NVIDIA Jetson et Raspberry Pi</description><content:encoded>&lt;p&gt;&lt;strong&gt;Wendy Labs Inc.&lt;/strong&gt; vient de libérer le code source de &lt;strong&gt;Wendy&lt;/strong&gt;, un outil en ligne de commande et une plateforme de développement qu’elle présente comme un « OS pour l’IA physique ». L’objectif affiché est ambitieux : transformer le processus de développement pour le matériel edge — comme le &lt;strong&gt;NVIDIA Jetson&lt;/strong&gt; ou le &lt;strong&gt;Raspberry Pi&lt;/strong&gt;, réputés pour être particulièrement capricieux — en une expérience qui ressemble enfin au développement cloud moderne. En résumé : moins de temps à s&amp;rsquo;arracher les cheveux sur des chaînes de compilation croisée (toolchains) et plus de temps à coder.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/signalgaining/status/2043920276929556653"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Wendy propose une CLI unifiée pour bâtir des applications en Swift, Python, Rust et TypeScript, tout en gérant automatiquement leur conteneurisation via Docker et leur déploiement sur des terminaux ARM. Son tour de force consiste à gommer les différences d&amp;rsquo;architecture : les développeurs codent sur leur machine native (macOS ou Linux) et déploient vers la cible d&amp;rsquo;une simple commande. La plateforme se targue également d&amp;rsquo;un support complet pour le débogage à distance via LLDB, une fonctionnalité qui relève du luxe absolu dans l&amp;rsquo;univers de l&amp;rsquo;embarqué. Le code du projet est désormais disponible sur leur Hyperlink: &lt;a href="https://github.com/wendylabsinc"&gt;GitHub&lt;/a&gt;.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-important-"&gt;Pourquoi est-ce important ?&lt;/h4&gt; &lt;p&gt;Pour les développeurs qui planchent sur la prochaine génération de robots et d&amp;rsquo;objets intelligents, le gain est colossal : une réduction drastique des frictions d&amp;rsquo;installation et une boucle de développement bien plus fluide. Au lieu de passer des jours à configurer un environnement de build instable, on peut théoriquement faire tourner une application IA complexe et multilingue sur le matériel final en quelques minutes seulement. Le revers de la médaille, c&amp;rsquo;est l&amp;rsquo;adoption d&amp;rsquo;une nouvelle couche d&amp;rsquo;abstraction encore peu éprouvée, proposée par une jeune pousse. Si le projet est open-source, l&amp;rsquo;écosystème reste pour l&amp;rsquo;instant un terrain assez désert comparé aux solutions historiques. Néanmoins, pour le prototypage rapide, Wendy fait une promesse alléchante : passer moins de temps à se battre contre ses outils et plus de temps à construire l&amp;rsquo;avenir.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>industrial</category><category>startups</category><category>open-source</category><category>research</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-15-image-606c8fba.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Les muscles robotiques du MIT soulèvent 250 fois leur poids</title><link>https://robohorizon.eu/fr/news/2026/04/muscles-robotiques-mit-250x-leur-poids/</link><pubDate>Mon, 13 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/muscles-robotiques-mit-250x-leur-poids/</guid><description>Ozgun Kilic Afsar du MIT explique comment des fibres artificielles ultra-fines remplacent les moteurs lourds par des muscles puissants et légers.</description><content:encoded>&lt;p&gt;Les chercheurs du &lt;strong&gt;MIT Media Lab&lt;/strong&gt; viennent de mettre au point une nouvelle classe de fibres musculaires artificielles qui font passer nos moteurs traditionnels pour de maladroites reliques de l&amp;rsquo;ère industrielle. Lors d&amp;rsquo;un récent entretien, la chercheuse principale &lt;strong&gt;Ozgun Kilic Afsar&lt;/strong&gt; a détaillé le fonctionnement de ces « muscles à fibres électrofluidiques ». La démonstration est bluffante : un faisceau de fibres de seulement 16 grammes soulève une charge de 4 kilogrammes, soit plus de 250 fois son propre poids. Cette percée, publiée dans la revue &lt;em&gt;Science Robotics&lt;/em&gt;, envoie valser les moteurs encombrants, les compresseurs bruyants et les pompes externes. Tout le système d&amp;rsquo;actionnement est logé dans un brin silencieux et autonome, à peine plus épais qu&amp;rsquo;un cure-dent.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/gOMCNOteIDc?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/gOMCNOteIDc/hqdefault.jpg"
srcset="https://img.youtube.com/vi/gOMCNOteIDc/mqdefault.jpg 320w,
https://img.youtube.com/vi/gOMCNOteIDc/hqdefault.jpg 480w,
https://img.youtube.com/vi/gOMCNOteIDc/sddefault.jpg 640w,
https://img.youtube.com/vi/gOMCNOteIDc/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;p&gt;Pendant des décennies, la robotique a été l&amp;rsquo;otage des « titans » de l&amp;rsquo;actionnement : les moteurs électromagnétiques. Certes puissants, ils constituent un point de défaillance unique et fragile. Comme l&amp;rsquo;explique Afsar, si un moteur ou son engrenage lâche, c&amp;rsquo;est toute l&amp;rsquo;articulation du robot qui se retrouve paralysée. À l&amp;rsquo;inverse, ces nouvelles fibres imitent la structure hiérarchique et distribuée du muscle biologique. À l&amp;rsquo;instar de vos propres biceps, si quelques filaments flanchent, l&amp;rsquo;ensemble du système continue de fonctionner de manière résiliente au lieu de s&amp;rsquo;effondrer brutalement. Le secret de fabrication ? L&amp;rsquo;intégration de pompes électrohydrodynamiques (EHD) miniaturisées directement au cœur de la fibre. Elles utilisent un champ électrique pour déplacer un fluide et générer de la pression, sans la moindre pièce mobile.&lt;/p&gt;
&lt;p&gt;Nous avions déjà évoqué l&amp;rsquo;annonce initiale de cette technologie impressionnante, soulignant son potentiel pour créer des textiles robotiques durables, et même lavables en machine. Vous pouvez retrouver les prémices de cette aventure ici :
&lt;a href="https://robohorizon.eu/fr/news/2026/04/fibre-musculaire-lavable/" hreflang="fr"&gt;Cette fibre musculaire lavable soulève 200x son propre poids&lt;/a&gt;
. Ce nouvel entretien avec Afsar permet d&amp;rsquo;explorer bien plus en profondeur la mécanique et la philosophie de ce projet : s&amp;rsquo;affranchir enfin de l&amp;rsquo;actionnement rigide basé sur des articulations classiques. &lt;a href="https://www.science.org/doi/10.1126/scirobotics.ady6438"&gt;Consulter l&amp;rsquo;étude complète dans Science Robotics&lt;/a&gt;.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-révolution-"&gt;Pourquoi est-ce une révolution ?&lt;/h4&gt; &lt;p&gt;Il ne s&amp;rsquo;agit pas seulement de fabriquer des robots plus costauds ou plus discrets ; c&amp;rsquo;est un changement de paradigme total dans la manière de concevoir les machines. Au lieu de dessiner un squelette rigide pour y greffer ensuite des moteurs massifs, les ingénieurs peuvent désormais tisser la puissance et le mouvement à même la structure du robot. Cela ouvre la voie à des machines réellement « soft » et souples, bien plus sûres pour l&amp;rsquo;interaction humaine, ainsi qu&amp;rsquo;à des prothèses et des exosquelettes de nouvelle génération. Imaginez coupler cette technologie avec d&amp;rsquo;autres méthodes de fabrication futuristes, comme celles développées par &lt;strong&gt;Allonics&lt;/strong&gt; pour tisser des corps robotiques complexes :
&lt;a href="https://robohorizon.eu/fr/magazine/2026/03/allonic-tissage-corps-robot/" hreflang="fr"&gt;Allonic : 7,2 M$ pour tisser des robots comme des muscles&lt;/a&gt;
. Nous nous dirigeons vers un futur où le corps du robot et ses muscles ne feront plus qu&amp;rsquo;un : une architecture résiliente, silencieuse et d&amp;rsquo;un réalisme presque troublant.&lt;/p&gt;</content:encoded><category>bionics</category><category>humanoids</category><category>research</category><category>business</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-13-pastedgraphic-1-ce9d4837.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>ToddlerBot : humanoïde open source à 6000 dollars pour IA</title><link>https://robohorizon.eu/fr/news/2026/04/toddlerbot-humanoide-open-source-democratisation-ia/</link><pubDate>Sun, 12 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/toddlerbot-humanoide-open-source-democratisation-ia/</guid><description>Un nouvel humanoïde open source nommé ToddlerBot est disponible pour environ 6000 dollars, rendant la recherche en robotique accessible</description><content:encoded>&lt;p&gt;Dans un monde où s&amp;rsquo;offrir un robot humanoïde coûte souvent plus cher qu&amp;rsquo;une berline de luxe, un nouveau projet universitaire vient de jeter un pavé dans la mare avec une approche radicalement différente et, avouons-le, rafraîchissante pour notre portefeuille. Voici &lt;strong&gt;ToddlerBot&lt;/strong&gt;, une plateforme humanoïde open source à bas coût, conçue pour mettre la recherche de pointe en IA et en robotique à la portée de tous pour un coût total de composants inférieur à 6 000 €. Mené par Haochen Shi, doctorant à l&amp;rsquo;Université de &lt;strong&gt;Stanford&lt;/strong&gt;, ce projet ambitionne de démocratiser un secteur longtemps resté la chasse gardée de laboratoires académiques et de multinationales aux budgets illimités.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;idée maîtresse derrière ToddlerBot est de fournir une plateforme évolutive et reproductible pour la recherche basée sur les données, en particulier dans le domaine de la « loco-manipulation » — cet art complexe qui consiste à se déplacer tout en manipulant des objets. Du haut de ses 56 cm pour un poids plume de 3,4 kg, ce petit robot a été pensé pour évoluer en toute sécurité dans des environnements réels. Avec ses 30 degrés de liberté, son corps entièrement imprimable en 3D et l&amp;rsquo;utilisation de composants standards (off-the-shelf), il devient accessible à n&amp;rsquo;importe quel labo ou mordu de tech possédant des bases techniques. Les plans complets, des modèles 3D sur MakerWorld au code de contrôle basé sur Python, sont disponibles en libre accès sur GitHub. Lien : &lt;a href="https://github.com/hshi74/toddlerbot"&gt;ToddlerBot sur GitHub&lt;/a&gt;&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/HaochenShi74/status/1886599720279400732"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;La toute récente version V2.0, disponible sur MakerWorld, booste encore les capacités du robot, qui sait déjà marcher, ramper et même enchaîner les pompes. La plateforme a été pensée dès le départ pour être compatible avec le machine learning, intégrant un jumeau numérique (digital twin) haute fidélité. Ce dernier permet un transfert « sim-to-real » fluide : les chercheurs peuvent entraîner leurs modèles d&amp;rsquo;IA en simulation avant de les déployer sur le robot physique avec un minimum de frictions.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-petite-révolution-"&gt;Pourquoi est-ce une petite révolution ?&lt;/h4&gt; &lt;p&gt;Aujourd&amp;rsquo;hui, le ticket d&amp;rsquo;entrée pour un humanoïde de recherche se compte souvent en six chiffres, une barrière financière qui étouffe l&amp;rsquo;innovation à la racine. En ramenant ce prix aux alentours de 5 600 € — dont 90 % sont consacrés aux moteurs et à l&amp;rsquo;informatique embarquée — ToddlerBot ouvre grand la porte aux petites universités, aux startups et même aux makers les plus ambitieux. Il ne s&amp;rsquo;agit pas seulement de fabriquer un robot moins cher ; il s&amp;rsquo;agit de bâtir une communauté de chercheurs plus vaste et plus diversifiée. Une plateforme accessible comme ToddlerBot pourrait accélérer de manière fulgurante les progrès de l&amp;rsquo;IA incarnée (embodied AI), de l&amp;rsquo;apprentissage par renforcement et de l&amp;rsquo;interaction physique homme-robot. La preuve que le futur de la robotique n&amp;rsquo;a pas forcément besoin d&amp;rsquo;un budget colossal pour être brillant.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>humanoids</category><category>research</category><category>open-source</category><category>education</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-12-image001-abedc83e.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Approbation du FSD Tesla sous surveillance aux Pays-Bas</title><link>https://robohorizon.eu/fr/news/2026/04/approbation-fsd-tesla-sous-surveillance-pays-bas/</link><pubDate>Sat, 11 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/approbation-fsd-tesla-sous-surveillance-pays-bas/</guid><description>RDW aux Pays-Bas accorde une approbation provisoire au FSD Tesla pour son entrée sur le marché européen</description><content:encoded>&lt;p&gt;&lt;strong&gt;Tesla, Inc.&lt;/strong&gt; a enfin réussi à faire sauter le verrou réglementaire européen en décrochant sa toute première homologation pour le déploiement de son logiciel &lt;strong&gt;Full Self-Driving (Supervised)&lt;/strong&gt; aux Pays-Bas. L&amp;rsquo;annonce, tombée ce 10 avril 2026, confirme que les propriétaires néerlandais de Tesla pourront bientôt goûter à ce système d&amp;rsquo;aide à la conduite ultra-avancé, une fonctionnalité qui faisait jusqu&amp;rsquo;ici figure de fruit défendu réservé à l&amp;rsquo;Amérique du Nord. Toutefois, en lisant entre les lignes, on comprend vite qu&amp;rsquo;il ne s&amp;rsquo;agit pas encore de la révolution des robotaxis, mais plutôt d&amp;rsquo;un baptême du feu sous très haute surveillance.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;autorité néerlandaise des transports, la &lt;strong&gt;RDW (Rijksdienst voor het Wegverkeer)&lt;/strong&gt;, a délivré ce qu&amp;rsquo;elle appelle une « homologation de type européenne à validité provisoire aux Pays-Bas » après une évaluation marathon de 18 mois. La RDW n&amp;rsquo;a pas tardé à doucher les espoirs de conduite totalement autonome en précisant sans ambiguïté qu&amp;rsquo;un véhicule équipé du FSD Supervised n&amp;rsquo;est &lt;em&gt;pas&lt;/em&gt; autonome. Juridiquement, le système reste classé en Niveau 2 (aide à la conduite), ce qui signifie que le conducteur demeure l&amp;rsquo;unique responsable et doit être prêt à reprendre les commandes en une fraction de seconde.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/teslaeurope/status/2042709396111724639"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Dans son communiqué, Tesla a affirmé : « Aucun autre véhicule n&amp;rsquo;est capable de faire cela. » Une déclaration qui relève, pour rester poli, de la fanfaronnade marketing. La RDW elle-même a rappelé que d&amp;rsquo;autres constructeurs, à l&amp;rsquo;image de &lt;strong&gt;BMW&lt;/strong&gt; et &lt;strong&gt;Ford&lt;/strong&gt;, disposent déjà d&amp;rsquo;autorisations pour des systèmes de conduite « hands-off » (sans les mains) similaires en Europe. Cette homologation place le FSD Supervised sous le même carcan réglementaire que ses concurrents, imposant un monitoring constant du conducteur via les caméras de l&amp;rsquo;habitacle pour s&amp;rsquo;assurer que ses yeux ne quittent pas la route.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-un-tournant-"&gt;Pourquoi est-ce un tournant ?&lt;/h4&gt; &lt;p&gt;Cette approbation est une victoire majeure, bien qu&amp;rsquo;incrémentale, pour Tesla. Elle offre au constructeur une tête de pont stratégique sur un marché européen réputé pour sa prudence, où le modèle de l&amp;rsquo;« homologation de type » prévaut sur l&amp;rsquo;« auto-certification » en vigueur aux États-Unis. Si le feu vert néerlandais ne s&amp;rsquo;applique pas automatiquement à l&amp;rsquo;ensemble de l&amp;rsquo;Union européenne, il trace une voie royale pour que d&amp;rsquo;autres États membres reconnaissent cette certification. On peut ainsi espérer un déploiement plus large d&amp;rsquo;ici l&amp;rsquo;été 2026.&lt;/p&gt;
&lt;p&gt;En fin de compte, les Pays-Bas deviennent le laboratoire officiel du FSD en Europe. Le caractère « provisoire » de cette licence signifie que les régulateurs surveilleront le système comme le lait sur le feu. Pour Tesla, c&amp;rsquo;est l&amp;rsquo;occasion en or de prouver que son IA peut digérer la complexité du réseau routier européen. Pour les conducteurs, c&amp;rsquo;est une plongée dans le futur de l&amp;rsquo;assistance à la conduite, à condition de garder en tête qu&amp;rsquo;ils sont toujours aux manettes : interdiction formelle de lire le journal au volant, comme l&amp;rsquo;a rappelé fermement la RDW. Le futur de la mobilité vient de franchir la frontière néerlandaise, mais il restera, pour un bon moment encore, sous tutelle.&lt;/p&gt;</content:encoded><category>autonomous</category><category>business</category><category>policy</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-11-image-79c67bd2.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Unitree R1 arrive sur AliExpress au prix choc de 4 900 $</title><link>https://robohorizon.eu/fr/news/2026/04/unitree-r1-arrive-sur-aliexpress-au-prix-choc-de-4900-dollars/</link><pubDate>Sat, 11 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/unitree-r1-arrive-sur-aliexpress-au-prix-choc-de-4900-dollars/</guid><description>Unitree lance le robot R1 sur AliExpress pour moins de 5 000 $, rendant la robotique accessible à tous dès la semaine prochaine.</description><content:encoded>&lt;p&gt;La start-up chinoise &lt;strong&gt;Unitree Robotics&lt;/strong&gt; s&amp;rsquo;apprête à transformer l&amp;rsquo;acquisition d&amp;rsquo;un robot humanoïde en un simple achat coup de cœur, faisant passer la technologie du domaine de la science-fiction à celui du panier AliExpress. Dès la semaine prochaine, l&amp;rsquo;entreprise lancera son &lt;strong&gt;robot humanoïde R1&lt;/strong&gt; sur la célèbre plateforme de vente en ligne, avec un prix d&amp;rsquo;appel fixé à seulement &lt;strong&gt;4 900 $&lt;/strong&gt; (environ 4 600 €). Ce lancement international vise les marchés clés, notamment l&amp;rsquo;Europe, l&amp;rsquo;Amérique du Nord, le Japon et Singapour, propulsant ainsi un robot acrobate et abordable directement sur le pas de notre porte.&lt;/p&gt;
&lt;p&gt;Le R1, présenté comme « né pour le sport », affiche une taille de 123 cm pour un poids plume oscillant entre 25 et 29 kg. Il est capable de prouesses athlétiques bluffantes, comme dévaler des pentes en courant ou, plus surprenant encore, enchaîner les roues. Ce n&amp;rsquo;est pas le premier coup d&amp;rsquo;éclat de la société dans le domaine des humanoïdes accessibles ; ce modèle suit de près l&amp;rsquo;annonce du
&lt;a href="https://robohorizon.eu/fr/news/2026/04/unitree-g1-humanoide-16000-dollars-bouleverse-la-robotique/" hreflang="fr"&gt;Le robot Unitree G1 a 16000 dollars bouleverse la robotique&lt;/a&gt;
, plus performant mais aussi nettement plus onéreux. Le R1 cible un segment bien précis : les chercheurs, les développeurs et les technophiles qui étaient jusqu&amp;rsquo;ici tenus à l&amp;rsquo;écart du marché par des prix prohibitifs.&lt;/p&gt;
&lt;p&gt;Côté fiche technique, le modèle de base R1 AIR démarre à 4 900 $, tandis qu&amp;rsquo;une version standard plus avancée est proposée à 5 900 $. Pour ce prix, vous bénéficiez d&amp;rsquo;une machine dotée de 20 à 26 degrés de liberté, d&amp;rsquo;un processeur 8 cœurs, d&amp;rsquo;une IA multimodale intégrée pour le traitement de la voix et de l&amp;rsquo;image, et d&amp;rsquo;une autonomie d&amp;rsquo;environ une heure grâce à une batterie interchangeable à chaud. C&amp;rsquo;est une configuration pensée pour l&amp;rsquo;accessibilité et l&amp;rsquo;expérimentation, plutôt que pour la manutention industrielle lourde.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-un-tournant-majeur-"&gt;Pourquoi est-ce un tournant majeur ?&lt;/h4&gt; &lt;p&gt;Ce lancement n&amp;rsquo;est pas seulement l&amp;rsquo;arrivée d&amp;rsquo;un gadget bon marché ; c&amp;rsquo;est un véritable pavé dans la mare de la robotique mondiale. En rendant un humanoïde fonctionnel disponible sur une plateforme grand public comme AliExpress, &lt;strong&gt;Unitree&lt;/strong&gt; démocratise l&amp;rsquo;accès à un matériel qui, aux États-Unis, peut facilement dépasser les 300 000 $. Cette offensive est rendue possible par la chaîne d&amp;rsquo;approvisionnement ultra-intégrée de la Chine, permettant des tarifs agressifs que les concurrents occidentaux ne peuvent, pour l&amp;rsquo;heure, pas égaler.&lt;/p&gt;
&lt;p&gt;Les chiffres sont sans appel. En 2025, Unitree a déjà livré plus de 5 500 robots humanoïdes — principalement à des universités et des centres de recherche — quand des concurrents comme Tesla ou Figure AI n&amp;rsquo;en ont livré qu&amp;rsquo;environ 150 chacun. En s&amp;rsquo;invitant sur les sites d&amp;rsquo;e-commerce mondiaux, Unitree ne se contente pas de vendre un produit : elle cherche à verrouiller un écosystème mondial de développeurs avant même que ses rivaux n&amp;rsquo;aient quitté leurs laboratoires. L&amp;rsquo;ère de l&amp;rsquo;humanoïde livré par colis postal a officiellement commencé.&lt;/p&gt;</content:encoded><category>humanoids</category><category>service</category><category>business</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-11-image-774bafa3.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Verne lance le premier service de robotaxis en Europe</title><link>https://robohorizon.eu/fr/news/2026/04/verne-lance-le-premier-service-de-robotaxis-en-europe/</link><pubDate>Sat, 11 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/verne-lance-le-premier-service-de-robotaxis-en-europe/</guid><description>Verne lance un service de robotaxis commercial à Zagreb avec Pony.ai et Uber. Le public peut désormais réserver des trajets autonomes en Croatie.</description><content:encoded>&lt;p&gt;Pendant que le monde de la tech avait les yeux rivés sur les guerres de territoires des robotaxis à San Francisco et Phoenix, le premier service commercial de VTC autonomes en Europe vient de voir le jour là où on l&amp;rsquo;attendait le moins : à Zagreb, en Croatie. &lt;strong&gt;Verne&lt;/strong&gt;, la pépite de la mobilité autonome née dans le giron du constructeur d&amp;rsquo;hypercars électriques &lt;strong&gt;Rimac Group&lt;/strong&gt;, a officiellement donné le coup d&amp;rsquo;envoi de son service ce 8 avril 2026.&lt;/p&gt;
&lt;p&gt;Oubliez les démonstrations sur circuit fermé pour épater la galerie. Ici, le grand public peut d&amp;rsquo;ores et déjà réserver et payer ses trajets via l&amp;rsquo;application Verne, et le service sera bientôt intégré directement dans l&amp;rsquo;interface d&amp;rsquo;&lt;strong&gt;Uber&lt;/strong&gt; grâce à un partenariat stratégique de poids. L&amp;rsquo;opération repose sur un ménage à trois technologique assez impressionnant : &lt;strong&gt;Pony.ai&lt;/strong&gt;, leader mondial de la conduite autonome, fournit le &amp;ldquo;cerveau&amp;rdquo; ; Verne possède et gère la flotte ; et Uber apporte son réseau tentaculaire. Pour l&amp;rsquo;instant, ce sont des &lt;strong&gt;Arcfox Alpha T5&lt;/strong&gt; électriques, dopées au système de conduite autonome de septième génération de Pony.ai, qui arpentent les rues. Et oui, &amp;ldquo;phase de lancement&amp;rdquo; oblige, un opérateur de sécurité humain reste scotché derrière le volant, au cas où l&amp;rsquo;IA aurait une soudaine envie de s&amp;rsquo;arrêter pour déguster un burek.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-un-tournant-"&gt;Pourquoi est-ce un tournant ?&lt;/h4&gt; &lt;p&gt;Ce lancement marque une étape cruciale pour la mobilité autonome sur le Vieux Continent. On passe enfin des années de tests expérimentaux à un service commercial concret et tangible. Le modèle de partenariat est particulièrement malin : plutôt que de jouer les cavaliers seuls, Verne a marié la technologie de pointe de Pony.ai à la force de frappe d&amp;rsquo;Uber pour griller la politesse à la concurrence.&lt;/p&gt;
&lt;p&gt;C&amp;rsquo;est aussi le signe d&amp;rsquo;un pivot stratégique majeur. Initialement, Verne comptait se lancer avec son propre véhicule conçu de A à Z et boosté par Mobileye. En optant finalement pour un véhicule existant et un nouveau partenaire tech, la start-up s&amp;rsquo;offre un avantage critique de &amp;ldquo;premier arrivé&amp;rdquo; sur le marché européen. Avec des ambitions d&amp;rsquo;expansion dans 11 autres villes entre l&amp;rsquo;UE, le Royaume-Uni et le Moyen-Orient, ce lancement discret à Zagreb pourrait bien être le coup de pistolet qui lance la course aux robotaxis sur tout un nouveau continent.&lt;/p&gt;</content:encoded><category>autonomous</category><category>service</category><category>startups</category><category>business</category><category>policy</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-11-image-e4182dbf.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Le brevet du genou Optimus Tesla est très humain</title><link>https://robohorizon.eu/fr/news/2026/04/brevet-genou-optimus-tesla-plus-humain/</link><pubDate>Fri, 10 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/brevet-genou-optimus-tesla-plus-humain/</guid><description>Le brevet Tesla pour le genou Optimus révèle un design bio-inspiré pour réduire les coûts et augmenter la productivité de masse</description><content:encoded>&lt;p&gt;Le 9 avril 2026, l&amp;rsquo;Office américain des brevets (USPTO) a rendu public un dossier déposé par &lt;strong&gt;Tesla, Inc.&lt;/strong&gt; qui détonne par son absence totale d&amp;rsquo;algorithmes. Pas de réseaux de neurones, pas de &amp;ldquo;world models&amp;rdquo;, et pas la moindre mention d&amp;rsquo;intelligence artificielle. À la place, le brevet US20260097493A1 décrit, avec une précision chirurgicale, un genou. Déposé le jour même du Tesla AI Day 2022, ce document lève le voile sur la mécanique bio-inspirée du robot humanoïde &lt;strong&gt;Optimus&lt;/strong&gt;. Quelques jours seulement avant cette publication, Elon Musk affirmait sur X : &amp;ldquo;Optimus 3 déambule déjà, mais il nécessite encore quelques finitions.&amp;rdquo; Il ne fait presque aucun doute que ce genou est l&amp;rsquo;une de ces pièces maîtresses.&lt;/p&gt;
&lt;p&gt;Le schéma le plus fascinant du brevet n&amp;rsquo;est pas un plan CAO complexe, mais une planche didactique en trois étapes. Elle débute par un diagramme du genou humain légendé &amp;ldquo;Principe Biologique&amp;rdquo;, évolue vers une structure filaire baptisée &amp;ldquo;Analogue Mécanique&amp;rdquo;, pour aboutir au &amp;ldquo;Design&amp;rdquo; final. Le document établit un parallèle explicite entre les quadriceps, la rotule et les ligaments, et un système de liaison à quatre barres. Il ne s&amp;rsquo;agit pas d&amp;rsquo;une simple pièce de robotique, mais d&amp;rsquo;une traduction mécanique directe de millions d&amp;rsquo;années d&amp;rsquo;évolution. Cette conception permet d&amp;rsquo;atteindre une rotation de 150 degrés, équivalente à celle de l&amp;rsquo;homme, à partir d&amp;rsquo;un unique actionneur linéaire de petite taille.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/news/2026-04-10-image-2-e7619b1f_hu_758b4e514b552574.webp"
srcset="https://robohorizon.com/images/shared/news/2026-04-10-image-2-e7619b1f_hu_758b4e514b552574.webp 480w, https://robohorizon.com/images/shared/news/2026-04-10-image-2-e7619b1f_hu_9d5164786135c42d.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Figure du brevet montrant la transition entre l&amp;#39;anatomie du genou humain et une liaison mécanique."
loading="lazy"
width="480"
height="340"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;Le mécanisme, une variante inversée de la liaison de Hoecken, est une réponse élégante à un casse-tête d&amp;rsquo;ingénierie. Si le genou humain est si efficace, c&amp;rsquo;est parce qu&amp;rsquo;il ne pivote pas autour d&amp;rsquo;un point fixe ; le bras de levier s&amp;rsquo;adapte au mouvement, maximisant le couple là où il est le plus nécessaire. Le système à quatre barres de Tesla reproduit cet avantage mécanique variable, permettant à un petit moteur de générer un mouvement à la fois puissant et d&amp;rsquo;une grande amplitude. Le brevet détaille comment des simulations ont été utilisées pour déterminer la longueur optimale de chaque segment afin de minimiser la consommation d&amp;rsquo;énergie tout en respectant les objectifs de couple et de vitesse.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/niccruzpatane/status/2042322142910693556"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h4 id="pourquoi-est-ce-crucial-"&gt;Pourquoi est-ce crucial ?&lt;/h4&gt; &lt;p&gt;Ce genou est le sésame qui doit rendre Optimus économiquement viable. En utilisant un seul actionneur compact au lieu d&amp;rsquo;un assemblage complexe et énergivore, Tesla réduit drastiquement le coût, le poids et la complexité de chaque jambe. C&amp;rsquo;est l&amp;rsquo;élément clé pour atteindre le prix cible ambitieux fixé par Elon Musk, entre 18 000 € et 28 000 € par unité. Ces économies d&amp;rsquo;échelle sont indispensables pour la production massive prévue d&amp;rsquo;un million d&amp;rsquo;unités par an à l&amp;rsquo;usine de Fremont, qui libère déjà de l&amp;rsquo;espace en mettant fin à la production des Model S et Model X.&lt;/p&gt;
&lt;p&gt;Si le design est brillant, sa géométrie n&amp;rsquo;est pas pour autant une chasse gardée de Tesla. Des analystes ont remarqué que l&amp;rsquo;humanoïde IRON de nouvelle génération conçu par &lt;strong&gt;Xpeng&lt;/strong&gt; semble utiliser une cinématique étrangement similaire. Le design de Tesla étant public depuis l&amp;rsquo;AI Day 2022, il semble que l&amp;rsquo;industrie converge naturellement vers les solutions les plus efficientes. L&amp;rsquo;évolution a mis des millions d&amp;rsquo;années à perfectionner cette géométrie ; Tesla tente aujourd&amp;rsquo;hui de l&amp;rsquo;égaler, tout en respectant un budget de production.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/seti_park/status/2042433754057347083"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;</content:encoded><category>humanoids</category><category>bionics</category><category>business</category><category>research</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-10-image-1-e7619b1f.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Le robot Unitree G1 a 16000 dollars bouleverse la robotique</title><link>https://robohorizon.eu/fr/news/2026/04/unitree-g1-humanoide-16000-dollars-bouleverse-la-robotique/</link><pubDate>Thu, 09 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/unitree-g1-humanoide-16000-dollars-bouleverse-la-robotique/</guid><description>Unitree Robotics lance le G1, un robot humanoide au prix de 16000 dollars, ce qui met une pression immense sur la concurrence</description><content:encoded>&lt;p&gt;Dans ce qui ressemble moins à un lancement de produit qu’à un véritable coup de semonce tiré sur l’ensemble de l’industrie robotique, &lt;strong&gt;Unitree Robotics&lt;/strong&gt; vient de lâcher son robot humanoïde &lt;strong&gt;G1&lt;/strong&gt; avec un prix d&amp;rsquo;appel de seulement 16 000 $. Non, vous ne rêvez pas. Pour moins cher qu&amp;rsquo;une petite citadine d&amp;rsquo;entrée de gamme, vous pouvez désormais acquérir un robot bipède capable de se déplacer à 2 mètres par seconde (environ 7,2 km/h) et, plus surprenant encore, de se replier intégralement sur lui-même pour un rangement facile. La révolution robotique ne sera pas télévisée : elle sera livrée dans un carton étonnamment compact.&lt;/p&gt;
&lt;p&gt;Le G1 n&amp;rsquo;est pas un colosse de métal ; il culmine à un modeste 127 cm et pèse environ 35 kg. Il affiche un gabarit plus proche de celui d&amp;rsquo;un enfant que de son grand frère, le H1, vendu 90 000 $. Mais ne vous laissez pas tromper par sa petite taille. Le modèle de base dispose de 23 degrés de liberté (DoF), de capteurs LiDAR 3D et de caméras de profondeur pour la vision, le tout avec une autonomie d&amp;rsquo;environ deux heures. Unitree propose également une version « EDU » offrant jusqu&amp;rsquo;à 43 degrés de liberté, des articulations plus puissantes et, en option, un module NVIDIA Jetson Orin pour les développeurs qui ambitionnent de faire autre chose que de simples démonstrations devant leurs amis.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-révolution-"&gt;Pourquoi est-ce une révolution ?&lt;/h4&gt; &lt;p&gt;Le positionnement tarifaire du G1 provoque une onde de choc sismique sur le marché naissant des humanoïdes. Alors que des entreprises comme &lt;strong&gt;Tesla&lt;/strong&gt; visent un prix inférieur à 30 000 $ pour Optimus et que le Digit d&amp;rsquo;&lt;strong&gt;Agility Robotics&lt;/strong&gt; flirte avec les 250 000 $, Unitree a balayé toutes les spéculations en livrant une machine pour une fraction de ce coût. L&amp;rsquo;enjeu n&amp;rsquo;est pas seulement de rendre les robots moins chers, mais de les rendre accessibles.&lt;/p&gt;
&lt;p&gt;En cassant ainsi les prix, Unitree positionne le G1 comme la plateforme de référence pour les laboratoires de recherche, les universités et les petites entreprises qui étaient jusqu&amp;rsquo;alors exclues du marché de la robotique avancée faute de budget. Même si le G1 ne possède peut-être pas encore la force brute ou l&amp;rsquo;IA ultra-léchée de ses rivaux plus onéreux signés &lt;strong&gt;Figure AI&lt;/strong&gt; ou &lt;strong&gt;Boston Dynamics&lt;/strong&gt;, il offre une base matérielle « suffisamment performante » pour qu&amp;rsquo;une immense communauté de développeurs commence à créer des compétences et des applications. Cela pourrait accélérer massivement le développement logiciel et bâtir un écosystème robuste autour de la plateforme d&amp;rsquo;Unitree, lui donnant potentiellement une avance irrattrapable avant même que la concurrence n&amp;rsquo;ait annoncé ses tarifs. L&amp;rsquo;ère du développeur d&amp;rsquo;humanoïdes passionné vient peut-être de commencer.&lt;/p&gt;</content:encoded><category>humanoids</category><category>industrial</category><category>business</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-09-image-6dcd682a.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Robot AthenaZero de RAI manie deux bras à vitesse humaine</title><link>https://robohorizon.eu/fr/news/2026/04/athenazero-rai-robot-bimanuel-vitesse-humaine/</link><pubDate>Thu, 09 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/athenazero-rai-robot-bimanuel-vitesse-humaine/</guid><description>Le Robotics and AI Institute dirigé par le fondateur de Boston Dynamics dévoile AthenaZero un robot bimanuel pour des tâches dynamiques</description><content:encoded>&lt;p&gt;Le &lt;strong&gt;Robotics and AI Institute (RAI)&lt;/strong&gt;, l&amp;rsquo;organisation de recherche pilotée par le légendaire fondateur de &lt;strong&gt;Boston Dynamics&lt;/strong&gt;, Marc Raibert, vient de lever le voile sur &lt;strong&gt;AthenaZero&lt;/strong&gt;. Ce robot bimanuel ne se déplace pas comme une vulgaire machine d&amp;rsquo;usine, mais avec une fluidité qui frise l&amp;rsquo;organique. Dans un billet de blog publié le 7 avril, le RAI a détaillé ce nouveau prototype conçu spécifiquement pour la « manipulation dynamique » — l&amp;rsquo;un des plus grands défis de la robotique actuelle, exigeant que deux mains collaborent avec une rapidité et une grâce exemplaires.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/rai_inst/status/2041520357127958552"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Là où la plupart des robots industriels sont d&amp;rsquo;une rigidité notoire, handicapés par des rapports d&amp;rsquo;engrenage élevés, AthenaZero prend le contre-pied total. Du haut de son mètre 60, ce robot dispose de deux bras à 7 degrés de liberté (DoF) privilégiant une faible inertie et une accélération fulgurante. Le secret de fabrication ? Des actionneurs à entraînement quasi-direct qui confèrent au robot une « transparence à l&amp;rsquo;effort ». En clair, il peut passer instantanément d&amp;rsquo;une force brute pour soulever une charge lourde à un toucher de velours pour une tâche délicate. Une prouesse que la plupart des robots classiques ne peuvent accomplir sans risquer de s&amp;rsquo;auto-détruire ou de fracasser leur environnement.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;objectif n&amp;rsquo;est pas simplement de greffer deux bras sur un torse, mais de créer une plateforme capable d&amp;rsquo;apprendre à maîtriser des mouvements coordonnés complexes. La manipulation bimanuelle est le chaînon manquant pour automatiser des tâches aujourd&amp;rsquo;hui impossibles pour les robots monobras, comme l&amp;rsquo;assemblage de produits complexes, la manipulation d&amp;rsquo;objets souples ou de grande taille, ou tout ce qui ne consiste pas à simplement déplacer un objet A vers un point B pour l&amp;rsquo;éternité.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-révolution-"&gt;Pourquoi est-ce une révolution ?&lt;/h4&gt; &lt;p&gt;Pendant des décennies, l&amp;rsquo;automatisation s&amp;rsquo;est résumée à des bras puissants mais stupides, répétant inlassablement le même geste. Le &lt;strong&gt;Robotics and AI Institute&lt;/strong&gt; attaque le problème par les deux bouts : en concevant un hardware comme AthenaZero, physiquement taillé pour l&amp;rsquo;interaction dynamique, et en développant l&amp;rsquo;IA et les modèles d&amp;rsquo;apprentissage par renforcement nécessaires pour le piloter. En créant un système pensé dès le départ pour un contrôle basé sur l&amp;rsquo;apprentissage, le RAI pose un jalon majeur vers un « manipulateur universel » doté de capacités quasi-humaines. C&amp;rsquo;est précisément ce genre de recherche fondamentale qui permettra enfin aux robots de sortir de leur cage pour s&amp;rsquo;aventurer dans l&amp;rsquo;imprévisibilité du monde réel.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>humanoids</category><category>research</category><category>startups</category><category>business</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-09-image-0bff9778.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Projet Glasswing Anthropic : Stopper Skynet avant le début</title><link>https://robohorizon.eu/fr/magazine/2026/04/projet-glasswing-anthropic-stopper-skynet-avant-le-debut/</link><pubDate>Wed, 08 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/magazine/2026/04/projet-glasswing-anthropic-stopper-skynet-avant-le-debut/</guid><description>Anthropic utilise une intelligence artificielle secrète avec Glasswing pour sécuriser les logiciels. Voici une protection pour la technologie AGI.</description><content:encoded>&lt;p&gt;Il flotte comme un parfum de fin du monde dans la Silicon Valley, une sourde inquiétude qui murmure que 2026 sera l&amp;rsquo;année où les machines s&amp;rsquo;éveilleront pour de bon. C’est l&amp;rsquo;horizon redouté de l&amp;rsquo;Intelligence Artificielle Générale (AGI), perçue non plus comme un chatbot poli, mais comme une force capable de surclasser, de manipuler et de ringardiser ses propres créateurs. Alors, quand &lt;strong&gt;Anthropic&lt;/strong&gt;, le laboratoire qui se pose en garant de la sécurité, annonce une initiative baptisée &lt;strong&gt;Project Glasswing&lt;/strong&gt;, on s’attendrait presque à la présentation d&amp;rsquo;un gros bouton rouge &amp;ldquo;OFF&amp;rdquo; pour les futurs dieux de silicium.&lt;/p&gt;
&lt;p&gt;Au lieu de ça, on nous sert quelque chose de&amp;hellip; profondément ennuyeux. L&amp;rsquo;objectif affiché du Projet Glasswing est de « sécuriser les logiciels critiques pour l&amp;rsquo;ère de l&amp;rsquo;IA ». On dirait moins un programme pour empêcher Skynet de nuire qu&amp;rsquo;un audit informatique qui arrive avec dix ans de retard. Mais ne vous laissez pas berner par le jargon corporate. Il ne s&amp;rsquo;agit pas de patcher votre navigateur web ; il s&amp;rsquo;agit de construire une cage pour une bête qui n&amp;rsquo;est pas encore née, en utilisant une autre bête, à peine plus petite, pour tenir les barreaux.&lt;/p&gt;
&lt;h3 id="lia-pour-fliquer-toutes-les-autres-ia"&gt;L&amp;rsquo;IA pour fliquer toutes les autres IA&lt;/h3&gt; &lt;p&gt;Dans le fond, le &lt;strong&gt;Project Glasswing&lt;/strong&gt; est une chasse aux bugs massive et préventive. Anthropic a mis au point un modèle de pointe baptisé &lt;strong&gt;Mythos Preview&lt;/strong&gt;, apparemment si doué pour débusquer et exploiter les failles logicielles que l&amp;rsquo;entreprise juge sa sortie publique trop dangereuse. Alors, dans un élan soit brillamment proactif, soit terrifiant d&amp;rsquo;ironie, ils l&amp;rsquo;ont lâché dans la nature à des fins purement défensives.&lt;/p&gt;
&lt;p&gt;En partenariat avec le gotha de la tech — &lt;strong&gt;Apple&lt;/strong&gt;, &lt;strong&gt;Google&lt;/strong&gt;, &lt;strong&gt;Microsoft&lt;/strong&gt; et &lt;strong&gt;NVIDIA&lt;/strong&gt; — Anthropic laisse Mythos fouiller les entrailles des systèmes logiciels les plus critiques au monde. Le modèle a déjà déniché des milliers de vulnérabilités de haute importance, dont certaines croupissaient dans de grands systèmes d&amp;rsquo;exploitation et des navigateurs depuis des décennies, ayant survécu à des années d&amp;rsquo;inspection humaine.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;« Étant donné le rythme de progression de l&amp;rsquo;IA, il ne faudra pas longtemps avant que de telles capacités ne prolifèrent, potentiellement au-delà des acteurs engagés dans un déploiement sécurisé », déclare Anthropic. « Les conséquences — pour l&amp;rsquo;économie, la sécurité publique et la sécurité nationale — pourraient être graves. »&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;C&amp;rsquo;est la course aux armements de l&amp;rsquo;IA résumée en une phrase : construire une arme si puissante qu&amp;rsquo;il faut immédiatement inventer un bouclier contre elle, et ce bouclier n&amp;rsquo;est rien d&amp;rsquo;autre qu&amp;rsquo;une version légèrement plus &amp;ldquo;gentille&amp;rdquo; de la même arme. C&amp;rsquo;est un pari risqué : donner une longueur d&amp;rsquo;avance aux &amp;ldquo;gentils&amp;rdquo; avant que la technologie ne fuite inévitablement dans la nature.&lt;/p&gt;
&lt;h3 id="des-cerveaux-numériques-aux-corps-physiques"&gt;Des cerveaux numériques aux corps physiques&lt;/h3&gt; &lt;p&gt;Tout cela peut sembler abstrait, jusqu&amp;rsquo;à ce qu&amp;rsquo;on le connecte à l&amp;rsquo;autre moitié de l&amp;rsquo;équation AGI : le corps. La peur existentielle ne concerne pas seulement un morceau de code super-intelligent ; elle concerne ce code habitant une forme physique. On ne parle pas ici d&amp;rsquo;une enceinte connectée, mais d&amp;rsquo;&lt;strong&gt;IA incarnée&lt;/strong&gt; — des robots humanoïdes capables de marcher, de manipuler des objets et d&amp;rsquo;évoluer dans notre monde réel et bordélique.&lt;/p&gt;
&lt;p&gt;Le terme pour une intelligence qui surpasse l&amp;rsquo;humain dans tous les domaines, y compris les tâches physiques, n&amp;rsquo;est pas l&amp;rsquo;AGI, mais la Superintelligence Artificielle (ASI). L&amp;rsquo;AGI est l&amp;rsquo;étape où la machine égale l&amp;rsquo;intellect humain ; l&amp;rsquo;ASI est le point de bascule hypothétique où elle nous laisse sur place dans la poussière cognitive. De nombreux experts pensent que le saut de l&amp;rsquo;AGI à l&amp;rsquo;ASI pourrait être d&amp;rsquo;une rapidité terrifiante, un cycle d&amp;rsquo;auto-amélioration récursif connu sous le nom d&amp;rsquo;« explosion d&amp;rsquo;intelligence ».&lt;/p&gt;
&lt;p&gt;Imaginez maintenant une ASI pilotant un réseau mondial de robots humanoïdes. C&amp;rsquo;est le scénario qui empêche les chercheurs de dormir. Pendant que des entreprises comme Boston Dynamics et Figure perfectionnent le hardware, le software — le modèle du monde, le moteur de raisonnement — est ce que des labos comme Anthropic construisent. Le Projet Glasswing est un aveu : le logiciel sur lequel nous bâtissons notre monde numérique et physique futur est fondamentalement vulnérable. C’est une tentative désespérée de colmater les brèches avant que l&amp;rsquo;ouragan ne touche terre.&lt;/p&gt;
&lt;h3 id="alors-sommes-nous-prêts-pour-2026-"&gt;Alors, sommes-nous prêts pour 2026 ?&lt;/h3&gt; &lt;p&gt;La prédiction selon laquelle l&amp;rsquo;AGI arrivera d&amp;rsquo;ici 2026 fait rage. Des figures comme Elon Musk parient sur un calendrier très court, tandis que d&amp;rsquo;autres voient plutôt la fin de la décennie. Qu&amp;rsquo;importe la date exacte, le consensus est là : ce n&amp;rsquo;est plus une question de « si », mais de « quand ».&lt;/p&gt;
&lt;p&gt;Des initiatives comme le Projet Glasswing sont un rappel à la réalité brutal. Elles représentent les tentatives les plus sérieuses à ce jour pour s&amp;rsquo;attaquer au &amp;ldquo;problème du contrôle&amp;rdquo; : comment s&amp;rsquo;assurer qu&amp;rsquo;un système infiniment plus intelligent que vous reste aligné avec vos valeurs et vos ordres ? L&amp;rsquo;approche d&amp;rsquo;Anthropic consiste à utiliser la puissance de l&amp;rsquo;IA pour trouver les fissures dans nos fondations numériques et les sceller. C&amp;rsquo;est une course contre la montre pour blinder l&amp;rsquo;infrastructure de la société avant qu&amp;rsquo;une AGI non alignée ne trouve une faille.&lt;/p&gt;
&lt;p&gt;On est loin du débat philosophique et glorieux sur la conscience des machines façon Hollywood. C&amp;rsquo;est le travail ingrat et brut de la cybersécurité, passé à l&amp;rsquo;échelle planétaire. Il s&amp;rsquo;agit de s&amp;rsquo;assurer que le système d&amp;rsquo;exploitation du futur ne comporte pas de porte dérobée exploitable par une intelligence que nous ne pouvons même pas appréhender. Le Projet Glasswing n&amp;rsquo;est pas effrayant pour ce qu&amp;rsquo;il est, mais pour ce qu&amp;rsquo;il révèle de ce qui vient. C&amp;rsquo;est le bruit que font les gens les plus brillants du monde en essayant, dans un silence fiévreux, de verrouiller toutes les portes. On ne peut qu&amp;rsquo;espérer qu&amp;rsquo;ils aient terminé avant que ce qui se trouve de l&amp;rsquo;autre côté n&amp;rsquo;apprenne à crocheter les serrures.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>research</category><category>policy</category><media:content url="https://robohorizon.eu/images/shared/magazine/2026-04-08-image-3d09214e.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Figure AI produit un robot humanoïde toutes les 90 minutes</title><link>https://robohorizon.eu/fr/news/2026/04/figure-ai-produit-un-robot-humanoide-toutes-les-90-minutes/</link><pubDate>Tue, 07 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/figure-ai-produit-un-robot-humanoide-toutes-les-90-minutes/</guid><description>Figure AI accélère sa production pour assembler un robot humanoïde toutes les 90 minutes avec un objectif de un million de robots par an via IA</description><content:encoded>&lt;p&gt;Dans la course effrénée pour bâtir une main-d&amp;rsquo;œuvre robotique, &lt;strong&gt;Figure AI, Inc.&lt;/strong&gt; vient de passer en mode postcombustion. Lors d&amp;rsquo;une immersion sans filtre dans le &lt;em&gt;Shawn Ryan Show&lt;/em&gt;, l&amp;rsquo;entreprise a révélé qu&amp;rsquo;elle était désormais capable d&amp;rsquo;assembler un robot humanoïde complet en environ &lt;strong&gt;90 minutes&lt;/strong&gt;. On ne parle pas ici d&amp;rsquo;une projection futuriste, mais bien de leur capacité actuelle une fois la ligne de production lancée, avec l&amp;rsquo;ambition démesurée de passer à un million d&amp;rsquo;unités par an d&amp;rsquo;ici la fin de la décennie. Prenez le temps de digérer l&amp;rsquo;info : nous venons officiellement de quitter l&amp;rsquo;ère du &amp;ldquo;prototype de laboratoire&amp;rdquo; pour entrer dans celle de la production à la chaîne.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/HWq9cFhTvvQ?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/HWq9cFhTvvQ/hqdefault.jpg"
srcset="https://img.youtube.com/vi/HWq9cFhTvvQ/mqdefault.jpg 320w,
https://img.youtube.com/vi/HWq9cFhTvvQ/hqdefault.jpg 480w,
https://img.youtube.com/vi/HWq9cFhTvvQ/sddefault.jpg 640w,
https://img.youtube.com/vi/HWq9cFhTvvQ/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;p&gt;Le robot au cœur de ce blitz industriel mesure environ 1,68 m, pèse quelque 61 kg et affiche une autonomie de quatre à cinq heures par charge. Lorsqu&amp;rsquo;il tombe à plat, il lui suffit d&amp;rsquo;une heure pour faire le plein en se tenant simplement sur une station de recharge par induction, pompant environ deux kilowatts de puissance sans fil par les pieds. Chaque mouvement, de la simple marche à l&amp;rsquo;équilibre précaire en passant par des manipulations complexes, est intégralement piloté par le &lt;strong&gt;réseau neuronal Helix&lt;/strong&gt; de Figure ; ici, point de lignes de code traditionnelles écrites à la main pour dicter ses gestes. Interrogé sur la robustesse de la machine, un représentant de Figure a admis avec une franchise désarmante qu&amp;rsquo;après une chute, « parfois on lui brise la nuque, parfois tout va bien ».&lt;/p&gt;
&lt;p&gt;Cette puissance de feu industrielle n&amp;rsquo;est pas là pour faire joli. &lt;strong&gt;Figure AI&lt;/strong&gt; a déjà scellé des accords commerciaux avec des poids lourds comme &lt;strong&gt;BMW&lt;/strong&gt; pour la fabrication automobile et &lt;strong&gt;Brookfield&lt;/strong&gt; pour la logistique et l&amp;rsquo;immobilier. La firme a également laissé entendre que deux autres annonces majeures de clients tomberaient dans les 60 prochains jours. Côté hardware, les robots sont équipés de mains de cinquième génération truffées de caméras et de capteurs tactiles, d&amp;rsquo;un corps enveloppé de mousse pour la sécurité, et de « vêtements » amovibles qui se retirent sans le moindre outil.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-révolution-"&gt;Pourquoi est-ce une révolution ?&lt;/h4&gt; &lt;p&gt;Le principal goulot d&amp;rsquo;étranglement de la robotique n&amp;rsquo;a jamais été le robot lui-même, mais l&amp;rsquo;usine capable de le construire. Pendant que la concurrence peaufine ses démos de salon, Figure se concentre sur le passage à l&amp;rsquo;échelle. Un temps de montage de 90 minutes par unité change radicalement l&amp;rsquo;équation économique et l&amp;rsquo;accessibilité des robots polyvalents. C&amp;rsquo;est le signe d&amp;rsquo;un pivot stratégique : on ne fabrique plus des prototypes artisanaux hors de prix, on produit en masse une plateforme standardisée. Cette approche, couplée à un système de contrôle &amp;ldquo;AI-first&amp;rdquo; qui apprend au lieu d&amp;rsquo;être programmé, suggère que Figure ne cherche pas seulement à créer un meilleur robot — ils sont en train de construire la &lt;strong&gt;Ford T&lt;/strong&gt; du monde humanoïde. La course ne se joue plus sur l&amp;rsquo;agilité du bot, mais sur la capacité à en déployer des milliers sur le terrain.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>humanoids</category><category>business</category><category>startups</category><category>research</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-07-image001-9e839574.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Ce vélo autonome est un bijou d'ingénierie open source</title><link>https://robohorizon.eu/fr/news/2026/04/velo-autonome-ia-open-source/</link><pubDate>Sat, 04 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/velo-autonome-ia-open-source/</guid><description>Un ingénieur a créé un vélo autonome capable de s'équilibrer et d'éviter les obstacles, puis a partagé ce projet fou en open source sur GitHub.</description><content:encoded>&lt;p&gt;Alors que les mastodontes de la tech injectent des milliards pour éjecter le conducteur des voitures à quatre roues, l&amp;rsquo;ingénieur en IA &lt;strong&gt;Peng Zhihui&lt;/strong&gt; a décidé de s&amp;rsquo;attaquer à un casse-tête autrement plus complexe : retirer le cycliste d&amp;rsquo;une bicyclette. Le résultat ? Le &lt;strong&gt;XUAN-Bike&lt;/strong&gt;, un vélo autonome aux capacités bluffantes, capable de tenir en équilibre parfait, de naviguer dans des environnements tortueux et d&amp;rsquo;éviter les obstacles avec une aisance presque insolente. Et pour couronner le tout, dans ce qui ressemble à une démonstration de force magistrale, il a publié l&amp;rsquo;intégralité du projet en open source.&lt;/p&gt;
&lt;p&gt;Ce vélo est un petit bijou d&amp;rsquo;intégration système. Son &amp;ldquo;cerveau&amp;rdquo; repose sur une carte de contrôle personnalisée, propulsée par le &lt;strong&gt;processeur IA Ascend 310 de Huawei&lt;/strong&gt;. Côté vision, il s&amp;rsquo;appuie sur un combo caméra de profondeur RGBD et capteurs classiques, tels qu&amp;rsquo;un accéléromètre et un gyroscope. Mais la véritable magie opère au niveau du système de stabilisation. Plutôt que de compter uniquement sur les mouvements du guidon, le vélo utilise une roue d&amp;rsquo;inertie métallique montée sous la selle. En tournant à haute vitesse, elle génère la force gyroscopique nécessaire pour maintenir l&amp;rsquo;engin à la verticale, même à l&amp;rsquo;arrêt complet. Le résultat, d&amp;rsquo;une fluidité presque surnaturelle, est visible en action sur &lt;a href="https://www.bilibili.com/video/BV1fV411x72a"&gt;Bilibili&lt;/a&gt;.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/news/2026-04-04-image002-2-9d281f52_hu_e4a3240f794463ea.webp"
srcset="https://robohorizon.com/images/shared/news/2026-04-04-image002-2-9d281f52_hu_e4a3240f794463ea.webp 480w, https://robohorizon.com/images/shared/news/2026-04-04-image002-2-9d281f52_hu_c4543d6c4e3f4c1b.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Un rendu CAD du XUAN-Bike dévoilant ses moteurs sur mesure et ses systèmes de contrôle."
loading="lazy"
width="480"
height="261"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;L&amp;rsquo;ensemble du système est piloté par un réseau de neurones tournant sous &lt;strong&gt;MindSpore&lt;/strong&gt;, le framework de deep learning de Huawei. Cela permet au vélo non seulement de ne pas tomber, mais aussi de percevoir son environnement, d&amp;rsquo;identifier les obstacles et de tracer sa propre route. Selon la documentation du projet, le modèle de contrôle repose sur des algorithmes LQR/MPC et un système d&amp;rsquo;apprentissage par renforcement personnalisé. Pour les audacieux qui souhaiteraient construire leur propre machine défiant les lois de la physique, Peng a mis à disposition tous les schémas matériels, les fichiers de modélisation et le code source sur le &lt;a href="https://github.com/peng-zhihui/XUAN/blob/main/enREADME.md"&gt;dépôt GitHub&lt;/a&gt; du projet.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-étape-clé-"&gt;Pourquoi est-ce une étape clé ?&lt;/h4&gt; &lt;p&gt;On ne parle pas ici d&amp;rsquo;un simple projet de bricolage du dimanche ; c&amp;rsquo;est une véritable leçon magistrale de robotique moderne et de théorie du contrôle. Le XUAN-Bike prouve qu&amp;rsquo;avec le bon alliage de matériel IA accessible et de logiciels sophistiqués, un individu seul peut développer des systèmes autonomes dont la complexité rivalise avec celle des labos de R&amp;amp;D des plus grandes corporations. En ouvrant les sources du projet, Peng offre une ressource inestimable aux étudiants, chercheurs et passionnés, démystifiant au passage des concepts avancés de stabilité dynamique et de navigation autonome. C&amp;rsquo;est un rappel puissant que l&amp;rsquo;innovation de rupture ne naît pas toujours dans une salle de conseil d&amp;rsquo;administration, mais parfois dans un garage, portée par l&amp;rsquo;envie viscérale de rendre l&amp;rsquo;impossible&amp;hellip; possible.&lt;/p&gt;</content:encoded><category>autonomous</category><category>robot-brains</category><category>open-source</category><category>research</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-04-image001-1-9d281f52.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>GEN-1 de Generalist : 99 % de succès et une vitesse triplée</title><link>https://robohorizon.eu/fr/magazine/2026/04/gen-1-generalist-99-succes/</link><pubDate>Sat, 04 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/magazine/2026/04/gen-1-generalist-99-succes/</guid><description>Le modèle GEN-1 de Generalist atteint 99 % de fiabilité et triple sa vitesse, ouvrant la voie à une viabilité commerciale grâce à l'improvisation intelligente.</description><content:encoded>&lt;p&gt;Soyons honnêtes : la plupart des démonstrations de robotique ressemblent à un ballet de la déception méticuleusement chorégraphié. C’est lent, c’est maladroit, et on finit par se demander si la mort thermique de l’univers n’arrivera pas avant que le robot ait terminé de ranger une pauvre tasse. Mais de temps en temps, un projet sort du lot et brise ce plafond de verre. Aujourd&amp;rsquo;hui, ce &amp;ldquo;quelque chose&amp;rdquo;, c&amp;rsquo;est &lt;strong&gt;GEN-1&lt;/strong&gt;, le nouveau modèle d&amp;rsquo;IA de &lt;strong&gt;Generalist&lt;/strong&gt;. Et l&amp;rsquo;entreprise ne fait pas dans la demi-mesure : elle annonce avoir créé un cerveau d&amp;rsquo;IA généraliste pour robots qui ne se contente pas de fonctionner, mais qui excelle.&lt;/p&gt;
&lt;p&gt;Generalist présente GEN-1 comme le premier modèle à véritablement &amp;ldquo;maîtriser&amp;rdquo; des tâches physiques simples, preuves à l&amp;rsquo;appui. On parle de taux de réussite moyens de 99 % là où son prédécesseur, GEN-0, plafonnait à un petit 64 % (mention passable, sans plus). Plus impressionnant encore : il exécute les tâches jusqu&amp;rsquo;à trois fois plus vite que l&amp;rsquo;état de l&amp;rsquo;art actuel et, surtout, il peut apprendre une nouvelle mission avec seulement une heure de données spécifiques. On n&amp;rsquo;est plus dans l&amp;rsquo;évolution incrémentale ; c&amp;rsquo;est une véritable rupture technologique vers des robots enfin, réellement, viables commercialement.&lt;/p&gt;
&lt;h3 id="des-scaling-laws-à-la-maîtrise-physique"&gt;Des &amp;ldquo;Scaling Laws&amp;rdquo; à la maîtrise physique&lt;/h3&gt; &lt;p&gt;Il y a tout juste cinq mois, Generalist introduisait &lt;strong&gt;GEN-0&lt;/strong&gt;, un modèle qui prouvait que les &amp;ldquo;scaling laws&amp;rdquo; (ces lois de mise à l&amp;rsquo;échelle derrière l&amp;rsquo;ascension fulgurante de modèles comme GPT) pouvaient s&amp;rsquo;appliquer à la robotique. Plus de données et plus de puissance de calcul menaient, de manière prévisible, à de meilleures performances. C&amp;rsquo;était une avancée académique majeure, mais GEN-0 n&amp;rsquo;était pas encore prêt pour le monde réel.&lt;/p&gt;
&lt;p&gt;GEN-1, c&amp;rsquo;est le résultat de ces mêmes curseurs poussés au maximum. Le modèle a été entraîné sur un dataset bien plus vaste — plus d&amp;rsquo;un demi-million d&amp;rsquo;heures de données d&amp;rsquo;interaction physique haute fidélité — et boosté par de nouvelles avancées algorithmiques. Mais l&amp;rsquo;ingrédient secret réside dans la source des données. Plutôt que de compter uniquement sur la téléopération, coûteuse et difficile à passer à l&amp;rsquo;échelle, GEN-1 s&amp;rsquo;appuie sur des données issues d&amp;rsquo;appareils portables (&lt;em&gt;wearables&lt;/em&gt;) portés par des humains. Cela offre un corpus de pré-entraînement riche en physique réelle et en micro-corrections intuitives que la simulation ou la téléopération classique manquent souvent.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&amp;ldquo;Nous pensons que GEN-1 est le premier modèle d&amp;rsquo;IA physique généraliste à franchir un seuil critique : celui de la viabilité commerciale sur un large éventail de tâches&amp;rdquo;, a déclaré l&amp;rsquo;entreprise dans son communiqué.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/magazine/2026-04-04-image002-2-d88ecd8b_hu_b9baad7ece2674c.webp"
srcset="https://robohorizon.com/images/shared/magazine/2026-04-04-image002-2-d88ecd8b_hu_b9baad7ece2674c.webp 480w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Un bras robotique emballant méticuleusement un smartphone dans une boîte, faisant preuve d&amp;#39;une précision à haute vitesse."
loading="lazy"
width="480"
height="271"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;h3 id="la-sainte-trinité--fiabilité-vitesse-et-improvisation"&gt;La Sainte Trinité : Fiabilité, Vitesse et Improvisation&lt;/h3&gt; &lt;p&gt;Generalist définit la &amp;ldquo;maîtrise&amp;rdquo; comme la combinaison de trois capacités clés. Si les deux premières sont le socle de l&amp;rsquo;automatisation industrielle depuis 60 ans, c&amp;rsquo;est la troisième qui change la donne.&lt;/p&gt;
&lt;h4 id="fiabilité-et-vitesse--le-standard-industriel-sous-stéroïdes"&gt;Fiabilité et vitesse : Le standard industriel, sous stéroïdes&lt;/h4&gt; &lt;p&gt;D&amp;rsquo;abord, les chiffres sont tout simplement bluffants. Lors de tests de longue durée, GEN-1 a emballé des blocs plus de 1 800 fois d&amp;rsquo;affilée, plié des cartons plus de 200 fois et a même assuré la maintenance d&amp;rsquo;un aspirateur robot plus de 200 fois consécutives — un robot qui entretient un autre robot, c&amp;rsquo;est soit un rêve d&amp;rsquo;ingénieur, soit le début d&amp;rsquo;un film d&amp;rsquo;horreur très spécifique. Ces tâches ont tourné pendant des heures sans intervention humaine, avec un taux de réussite de 99 %.&lt;/p&gt;
&lt;p&gt;Côté vitesse, c&amp;rsquo;est le jour et la nuit. Un robot propulsé par GEN-1 peut assembler une boîte en 12,1 secondes, contre 34 secondes pour son prédécesseur. Insérer un téléphone dans une coque prend 15,5 secondes, soit 2,8 fois plus vite qu&amp;rsquo;auparavant. Il ne s&amp;rsquo;agit pas seulement de pousser les moteurs à fond ; le modèle apprend de l&amp;rsquo;expérience et utilise des techniques d&amp;rsquo;inférence avancées pour être plus efficace que les démonstrations humaines dont il s&amp;rsquo;est inspiré.&lt;/p&gt;
&lt;div class="video-container youtube-facade"
data-youtube-src="https://www.youtube.com/embed/SY2xyrmV44Y?autoplay=1"
role="button"
tabindex="0"
aria-label="Play video"&gt;&lt;img class="youtube-facade-thumbnail"
src="https://img.youtube.com/vi/SY2xyrmV44Y/hqdefault.jpg"
srcset="https://img.youtube.com/vi/SY2xyrmV44Y/mqdefault.jpg 320w,
https://img.youtube.com/vi/SY2xyrmV44Y/hqdefault.jpg 480w,
https://img.youtube.com/vi/SY2xyrmV44Y/sddefault.jpg 640w,
https://img.youtube.com/vi/SY2xyrmV44Y/maxresdefault.jpg 1280w"
sizes="(max-width: 320px) 320px, (max-width: 480px) 480px, (max-width: 640px) 640px, 1280px"
alt="Video thumbnail"
loading="lazy"
decoding="async"&gt;&lt;button class="youtube-facade-play-icon" aria-label="Play video" type="button"&gt;&lt;/button&gt;
&lt;/div&gt;
&lt;script&gt;
(function() {
var container = document.currentScript.previousElementSibling;
if (!container || !container.classList.contains('youtube-facade')) return;
function loadVideo() {
var src = container.dataset.youtubeSrc;
if (!src) return;
var iframe = document.createElement('iframe');
iframe.src = src;
iframe.title = 'YouTube video player';
iframe.frameBorder = '0';
iframe.allow = 'accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share';
iframe.referrerPolicy = 'strict-origin-when-cross-origin';
iframe.allowFullscreen = true;
container.innerHTML = '';
container.classList.remove('youtube-facade');
container.removeAttribute('role');
container.removeAttribute('tabindex');
container.removeAttribute('aria-label');
container.appendChild(iframe);
}
container.addEventListener('click', loadVideo);
container.addEventListener('keydown', function(e) {
if (e.key === 'Enter' || e.key === ' ') {
e.preventDefault();
loadVideo();
}
});
})();
&lt;/script&gt;
&lt;h4 id="limprovisation--létincelle-dintelligence"&gt;L’improvisation : L&amp;rsquo;étincelle d&amp;rsquo;intelligence&lt;/h4&gt; &lt;p&gt;La fiabilité et la vitesse sont la norme pour des bras industriels boulonnés au sol d&amp;rsquo;une usine. Ce qui leur manque, c&amp;rsquo;est la capacité à gérer le refus persistant de l&amp;rsquo;univers de suivre le script. C&amp;rsquo;est là qu&amp;rsquo;intervient &amp;ldquo;l&amp;rsquo;intelligence improvisatrice&amp;rdquo; de GEN-1.&lt;/p&gt;
&lt;p&gt;Generalist décrit cela comme une capacité émergente, une forme de résolution de problèmes en &amp;ldquo;freestyle&amp;rdquo;. Dans une démo, un robot préparant des pièces automobiles heurte accidentellement une rondelle. Au lieu de se figer ou d&amp;rsquo;échouer, le système GEN-1 analyse la situation et s&amp;rsquo;adapte. Il peut reposer la pièce pour la saisir plus proprement, utiliser le bord d&amp;rsquo;une fente pour la réorienter, ou même appeler son second bras en renfort pour une assistance bimanuelle. Ce ne sont pas des routines de récupération pré-programmées, mais des solutions inédites générées à la volée, bien au-delà de ses données d&amp;rsquo;entraînement. C&amp;rsquo;est toute la différence entre l&amp;rsquo;automatisation et l&amp;rsquo;autonomie.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/GeneralistAI/status/2039709306145190262"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h3 id="plus-quun-modèle-un-système-complet"&gt;Plus qu&amp;rsquo;un modèle, un système complet&lt;/h3&gt; &lt;p&gt;Il est crucial de comprendre que GEN-1 n&amp;rsquo;est pas seulement un ensemble de poids numériques. C&amp;rsquo;est un système global qui intègre des innovations dans le pré-entraînement, les techniques de post-entraînement et le traitement au moment de l&amp;rsquo;inférence. C&amp;rsquo;est cette approche systémique qui le rend si économe en données (&lt;em&gt;data-efficient&lt;/em&gt;), capable de s&amp;rsquo;adapter simultanément à un nouveau corps robotique et à une nouvelle tâche en seulement une heure.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/magazine/2026-04-04-image003-3-d88ecd8b_hu_a17ef0c4d6a6bf53.webp"
srcset="https://robohorizon.com/images/shared/magazine/2026-04-04-image003-3-d88ecd8b_hu_a17ef0c4d6a6bf53.webp 480w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Un bras robotique effectuant l&amp;#39;entretien d&amp;#39;un aspirateur robot, illustrant une interaction complexe entre deux machines."
loading="lazy"
width="480"
height="480"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;Bien entendu, GEN-1 n&amp;rsquo;est pas la solution miracle pour l&amp;rsquo;AGI physique. L&amp;rsquo;entreprise est la première à souligner ses limites. Toutes les tâches n&amp;rsquo;atteignent pas encore ce taux de réussite de 99 %, et certaines applications industrielles exigent une fiabilité encore plus absolue. De plus, cette capacité d&amp;rsquo;improvisation soulève la question critique de l&amp;rsquo;alignement de l&amp;rsquo;IA. Un robot capable de résoudre un problème de manière créative, c&amp;rsquo;est génial, mais il faut s&amp;rsquo;assurer que sa solution créative ne consiste pas, par exemple, à percer un trou dans un mur pour gagner en efficacité.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/magazine/2026-04-04-image004-4-d88ecd8b_hu_d9aa4b68078e470f.webp"
srcset="https://robohorizon.com/images/shared/magazine/2026-04-04-image004-4-d88ecd8b_hu_d9aa4b68078e470f.webp 480w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Une paire de bras robotiques travaillant en tandem pour plier un t-shirt, un défi classique en manipulation de précision."
loading="lazy"
width="480"
height="468"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;Pourtant, le lancement de GEN-1 ressemble à une étape historique. Il renforce l&amp;rsquo;idée que le passage à l&amp;rsquo;échelle avec de vastes quantités de données d&amp;rsquo;interaction réelle est la voie la plus prometteuse vers des robots généralistes. En se concentrant sur ce trio gagnant — faire la tâche correctement, la faire vite, et savoir quoi faire quand tout déraille — Generalist vient peut-être de faire franchir au rêve du robot polyvalent un pas de géant vers la réalité. Pour nous, c&amp;rsquo;est plus qu&amp;rsquo;un simple modèle : c&amp;rsquo;est le signe que le monde physique est enfin sur le point de devenir beaucoup plus intelligent.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>research</category><category>business</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/magazine/2026-04-04-image001-1-d88ecd8b.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Airbus : le drone « Bird of Prey » et ses mini-missiles tueurs</title><link>https://robohorizon.eu/fr/news/2026/04/airbus-bird-prey-missiles-drones/</link><pubDate>Thu, 02 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/news/2026/04/airbus-bird-prey-missiles-drones/</guid><description>Face à la menace des drones low-cost, Airbus réplique avec un chasseur agile capable de neutraliser ses cibles pour une fraction du prix des missiles habituels.</description><content:encoded>&lt;p&gt;On dirait bien qu&amp;rsquo;&lt;strong&gt;Airbus&lt;/strong&gt; en a plus qu&amp;rsquo;assez de l&amp;rsquo;absurdité économique de la défense aérienne moderne, où des missiles à plusieurs millions d&amp;rsquo;euros sont régulièrement gaspillés pour abattre des drones dont le prix de revient est inférieur à celui d&amp;rsquo;une Twingo d&amp;rsquo;occasion. Le géant de l&amp;rsquo;aéronautique vient de dégainer sa réponse : un drone chasseur réutilisable capable de tirer ses propres mini-missiles low-cost. Baptisé &lt;strong&gt;Bird of Prey&lt;/strong&gt; (Oiseau de proie), le système a validé son premier « kill » air-air lors d&amp;rsquo;un vol de démonstration inaugural en Allemagne.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;annonce est tombée via un post sur X de Boris Alexander Beissner, chef de département chez &lt;strong&gt;Airbus Defence and Space&lt;/strong&gt;, qui a souligné que le projet est passé de la planche à dessin à sa première interception réussie en un sprint industriel de seulement neuf mois. Le Bird of Prey est une version modifiée du drone cible &lt;strong&gt;Do-DT25&lt;/strong&gt;, une plateforme de 160 kg pour 2,5 mètres d&amp;rsquo;envergure, qui a été métamorphosée : d&amp;rsquo;ordinaire habituée à servir de cible aux missiles, elle est désormais celle qui les tire.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/boris_beissner/status/2039031733375410409"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;p&gt;Lors de l&amp;rsquo;essai, le drone a traqué et engagé de manière autonome un drone kamikaze cible à l&amp;rsquo;aide d&amp;rsquo;un missile « Frankenburg Mk1 ». Ces intercepteurs ultra-légers, développés par le partenaire &lt;strong&gt;Frankenburg Technologies&lt;/strong&gt;, pèsent moins de 2 kg chacun pour seulement 65 cm de long. Si le prototype transportait quatre missiles, les versions opérationnelles prévoient d&amp;rsquo;en embarquer jusqu&amp;rsquo;à huit. Chaque missile de type « tire et oublie » (fire-and-forget) dispose d&amp;rsquo;une portée d&amp;rsquo;engagement d&amp;rsquo;environ 1,5 km et utilise une charge à fragmentation pour neutraliser les menaces.&lt;/p&gt;
&lt;h4 id="pourquoi-est-ce-une-petite-révolution-"&gt;Pourquoi est-ce une petite révolution ?&lt;/h4&gt; &lt;p&gt;Le rapport coût-efficacité actuel de la guerre des drones est tout simplement intenable. Tirer un missile Patriot, qui peut coûter plus de 4 millions d&amp;rsquo;euros, pour détruire un drone à 20 000 €, c&amp;rsquo;est une stratégie qui mène tout droit à des caisses vides et des stocks épuisés. Le système Bird of Prey vise à renverser totalement ce paradigme économique. En utilisant un drone réutilisable et relativement peu coûteux pour lancer des intercepteurs produits en série à bas prix, Airbus crée une défense scalable face à la menace croissante des essaims de drones. On ne sort plus le marteau-pilon pour écraser une mouche ; c&amp;rsquo;est plutôt de la fauconnerie moderne : efficace, répétable, et sans se ruiner. Airbus et Frankenburg prévoient de nouveaux tests tout au long de l&amp;rsquo;année 2026 pour amener le système à sa pleine maturité opérationnelle.&lt;/p&gt;</content:encoded><category>autonomous</category><category>industrial</category><category>policy</category><category>business</category><media:content url="https://robohorizon.eu/images/shared/news/2026-04-02-image-9336b2d9.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item><item><title>Cortical Labs loue désormais des neurones humains dans le cloud</title><link>https://robohorizon.eu/fr/magazine/2026/04/cortical-labs-cloud-neurones/</link><pubDate>Thu, 02 Apr 2026 00:00:00 +0000</pubDate><guid>https://robohorizon.eu/fr/magazine/2026/04/cortical-labs-cloud-neurones/</guid><description>La startup australienne Cortical Labs lance Cortical Cloud : louez et programmez des neurones humains vivants sur puce. L'informatique biologique est là.</description><content:encoded>&lt;p&gt;Pendant des années, le &amp;ldquo;cloud computing&amp;rdquo; n&amp;rsquo;a été qu&amp;rsquo;une métaphore commode, bien qu&amp;rsquo;un peu vaporeuse, pour désigner l&amp;rsquo;accès à d&amp;rsquo;immenses fermes de serveurs via Internet. La startup australienne &lt;strong&gt;Cortical Labs&lt;/strong&gt; semble avoir décidé de prendre l&amp;rsquo;expression au pied de la lettre, avec un premier degré assez déroutant : ils ont remplacé une partie du silicium par des neurones humains vivants. Et aujourd&amp;rsquo;hui, moyennant finances, ils vous proposent d&amp;rsquo;y faire tourner votre code.&lt;/p&gt;
&lt;p&gt;Bienvenue sur le &lt;strong&gt;Cortical Cloud&lt;/strong&gt;, une plateforme qui fait officiellement passer le concept de &amp;ldquo;wetware-as-a-service&amp;rdquo; (le vivant à la demande) des pages de romans de science-fiction à une API accessible au public. Pour environ 2 000 € par mois et par instance, vous pouvez désormais &amp;ldquo;louer&amp;rdquo; un réseau neuronal biologique (BNN) cultivé à partir de cellules cérébrales humaines et fusionné à une puce électronique. C&amp;rsquo;est un modèle économique audacieux, voire légèrement perturbant, qui promet d&amp;rsquo;ouvrir de nouvelles frontières informatiques — à condition d&amp;rsquo;avoir le budget et une définition assez souple du &amp;ldquo;contrat de licence utilisateur final&amp;rdquo;.&lt;/p&gt;
&lt;h3 id="de-pong-au-cloud-public"&gt;De Pong au Cloud public&lt;/h3&gt; &lt;p&gt;Si le nom de &lt;strong&gt;Cortical Labs&lt;/strong&gt; vous dit quelque chose, c&amp;rsquo;est parce qu&amp;rsquo;il s&amp;rsquo;agit de l&amp;rsquo;équipe qui, en 2022, a fait sensation en apprenant à un amas de neurones dans une boîte de Pétri — baptisé &amp;ldquo;DishBrain&amp;rdquo; — à jouer au jeu vidéo &lt;em&gt;Pong&lt;/em&gt;. Cette expérience, publiée dans la revue &lt;em&gt;Neuron&lt;/em&gt;, démontrait que ces circuits biologiques pouvaient apprendre et s&amp;rsquo;adapter en temps réel, bien plus rapidement que de nombreux modèles d&amp;rsquo;IA traditionnels. Ce fut un moment charnière pour ce que l&amp;rsquo;entreprise appelle l&amp;rsquo;« Intelligence Biologique Synthétique ».&lt;/p&gt;
&lt;p&gt;Depuis, leurs ambitions sont passées à la vitesse supérieure. Comme nous l&amp;rsquo;avons déjà évoqué, leurs réseaux neuronaux ont
&lt;a href="https://robohorizon.eu/fr/magazine/2026/03/cortical-labs-neurones-llm/" hreflang="fr"&gt;Des neurones humains pilotent un LLM après avoir dompté DOOM&lt;/a&gt;
. Aujourd&amp;rsquo;hui, ils transforment leur création en produit de consommation. L&amp;rsquo;entreprise a officiellement ouvert sa plateforme au public, invitant chercheurs, développeurs et curieux de tous bords à découvrir ce qu&amp;rsquo;il est possible de faire avec un véritable cerveau en boîte.&lt;/p&gt;
&lt;div class="x-post-container"&gt;
&lt;blockquote class="twitter-tweet"&gt;
&lt;a href="https://twitter.com/CorticalLabs/status/2033703626695479376"&gt;&lt;/a&gt;
&lt;/blockquote&gt;
&lt;/div&gt;
&lt;style&gt;
.x-post-container {
margin: 1.5rem 0;
display: flex;
justify-content: center;
}
&lt;/style&gt;
&lt;h3 id="comment-programmer-un-cerveau-"&gt;Comment programmer un cerveau ?&lt;/h3&gt; &lt;p&gt;Alors, comment s&amp;rsquo;y prend-on pour louer une tranche de calcul biologique ? Le processus est étonnamment similaire au déploiement d&amp;rsquo;un serveur sur AWS ou Google Cloud, ce qui est sans doute la partie la plus surréaliste de toute l&amp;rsquo;aventure. Le cœur de la plateforme est le &lt;strong&gt;CL1&lt;/strong&gt;, un dispositif matériel propriétaire contenant le BNN sur une matrice de multi-électrodes à haute densité. Ce hardware permet à la fois de stimuler les neurones et d&amp;rsquo;enregistrer leurs réponses avec une latence de l&amp;rsquo;ordre de la microseconde.&lt;/p&gt;
&lt;p&gt;L&amp;rsquo;accès à ce &amp;ldquo;wetware&amp;rdquo; est géré via la &lt;strong&gt;Cortical Labs API (CL API)&lt;/strong&gt;, une bibliothèque Python qui masque toute la complexité biophysique. Les développeurs peuvent utiliser un SDK simple pour interagir avec les neurones, envoyer des signaux et interpréter les pics d&amp;rsquo;activité résultants.&lt;/p&gt;
&lt;picture&gt;
&lt;img src="https://robohorizon.com/images/shared/magazine/2026-04-02-image002-2-07bb4b21_hu_2e5ccd9c06d2a6eb.webp"
srcset="https://robohorizon.com/images/shared/magazine/2026-04-02-image002-2-07bb4b21_hu_2e5ccd9c06d2a6eb.webp 480w, https://robohorizon.com/images/shared/magazine/2026-04-02-image002-2-07bb4b21_hu_c45537a37a6f7cd8.webp 640w"
sizes="(max-width: 768px) 100vw, 50vw"
alt="Capture d&amp;#39;écran de la documentation développeur de Cortical Labs montrant le code Python pour installer le SDK."
loading="lazy"
width="480"
height="240"
class="img-fluid article-centered"
decoding="async"&gt;
&lt;/picture&gt;
&lt;p&gt;Pour ceux qui souhaitent tester la bête avant d&amp;rsquo;investir quelques milliers d&amp;rsquo;euros, Cortical Labs propose un simulateur qui imite le comportement d&amp;rsquo;un appareil CL1 réel. Tout code développé sur le simulateur est conçu pour être parfaitement interchangeable avec le système biologique. L&amp;rsquo;intégralité du kit de développement logiciel est open-source, et vous pouvez retrouver le code sur leur dépôt GitHub. Lien : &lt;a href="https://github.com/Cortical-Labs/cl-sdk"&gt;cl-sdk sur GitHub&lt;/a&gt;.&lt;/p&gt;
&lt;h3 id="la-killer-app-du-vivant"&gt;La &amp;ldquo;Killer App&amp;rdquo; du vivant&lt;/h3&gt; &lt;p&gt;Une question se pose inévitablement : à quoi cela sert-il concrètement ? Au-delà de l&amp;rsquo;effet de curiosité pure, Cortical Labs cible trois domaines prioritaires :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Neurosciences :&lt;/strong&gt; Offrir une plateforme standardisée pour étudier la manière dont les neurones apprennent, forment des souvenirs et traitent l&amp;rsquo;information dans un environnement parfaitement contrôlé.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Pharmacologie et Toxicologie :&lt;/strong&gt; Les chercheurs peuvent tester les effets de nouveaux composés pharmaceutiques sur de réels circuits neuronaux pour évaluer l&amp;rsquo;efficacité et la neurotoxicité, ce qui pourrait accélérer la mise au point de traitements pour des maladies comme Alzheimer ou l&amp;rsquo;épilepsie.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Intelligence Artificielle :&lt;/strong&gt; C&amp;rsquo;est le gros morceau. Les partisans de l&amp;rsquo;informatique biologique affirment que le cerveau est infiniment plus efficace, énergétiquement parlant, que l&amp;rsquo;IA sur silicium pour certaines tâches. En étudiant et en exploitant l&amp;rsquo;intelligence biologique, nous pourrions découvrir de nouveaux paradigmes de calcul ne nécessitant pas des datacenters gargantuesques.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Bien sûr, cet accès à la pointe de la technologie a un prix. Si une instance unique coûte environ 2 000 € par mois, Cortical Labs propose des tarifs dégressifs pour les commandes groupées : la location de dix instances pendant six mois fait tomber le prix à environ 1 500 € par unité et par mois. Comme le note l&amp;rsquo;entreprise avec une pointe d&amp;rsquo;ironie, c&amp;rsquo;est &amp;ldquo;moins cher qu&amp;rsquo;un humain&amp;rdquo;. Pour l&amp;rsquo;instant, du moins. Ils encouragent également les institutions académiques à solliciter des bourses, affichant une volonté claire de fertiliser la communauté de recherche.&lt;/p&gt;
&lt;p&gt;Le lancement du Cortical Cloud est une étape aussi étrange que majeure. C&amp;rsquo;est la commercialisation d&amp;rsquo;un domaine qui est longtemps resté purement théorique. Nous sommes passés de la simulation de réseaux neuronaux sur silicium à l&amp;rsquo;offre d&amp;rsquo;une véritable intelligence biologique en tant que service cloud. Ce qui sera bâti sur cette plateforme reste à voir, mais une chose est certaine : la frontière entre l&amp;rsquo;ordinateur et l&amp;rsquo;organisme n&amp;rsquo;a jamais été aussi floue.&lt;/p&gt;</content:encoded><category>robot-brains</category><category>bionics</category><category>research</category><category>startups</category><media:content url="https://robohorizon.eu/images/shared/magazine/2026-04-02-image001-1-07bb4b21.webp" medium="image"/><dc:creator>Robot King</dc:creator><dc:language>fr</dc:language></item></channel></rss>