Boston Dynamics、つまりゾクゾクするほど機敏で、常にSNSを席巻するロボットたちで名を馳せるあの会社が、今、彼らの”頭脳”の中身に全力を注いでいる。リスボンで開催されたWeb Summitで、CEOのRobert Playterは、同社のロボットが自然言語とジェスチャーで制御できるようになる未来像を語った。これは、事前に決められたルーティンを遥かに超える、まさに思考する機械への飛躍だ。つまり、ロボットに「何をすべきか」を指示するだけで、「どうすべきか」まで手取り足取り教える必要がなくなる、というわけだ。
この新しいAI駆動型のアプローチは、同社のロボットをより直感的で、気の利くパートナーへと変貌させることを目指している。例えば、工場で熱画像検査や計器の読み取りといった任務にすでに就いている四足歩行ロボットのSpotなら、オペレーターが特定の機器を点検するよう、ただ頼むだけで済むようになる。これぞ、製造現場から原子力施設まで、複雑な環境での利用における技術的な参入障壁を一気にブチ破る一手となる。Boston Dynamicsは、ロボットに常識的な知識と、簡単な音声コマンドに対応する柔軟性を与えるため、大規模言語モデル(LLM)の活用を精力的に模索している。

よりスマートなソフトウェアへのこの推進は、同社の全ラインアップに及ぶ。倉庫の頼れる猛者であるStretchは、すでに年間数百万個の箱を移動させる見込みで、輸送コンテナ内部のような、カオス極まる環境にもっと迅速に適応できるAIの恩恵を受けるだろう。一方、二足歩行ロボットのAtlasは、汎用ロボット研究のプラットフォームとしての役割を継続しており、最近の研究では大規模行動モデル(LBM)に焦点を当てている。これにより、このヒューマノイドは、高レベルの言語プロンプトから複雑な多段階タスクをこなせるようになるというから、まさにSFの世界が現実のものとなる予感しかない。
なぜこれが重要なのか?
Boston Dynamicsは、これまでの純粋な機械的敏捷性の追求から、認知能力の強化へと軸足を移す、まさにゲームチェンジャーとなる転換期を告げている。自然言語とジェスチャー制御のための高度なAIを統合することで、同社は専門知識を持たない人々にも、ロボットの力を解放することを目指しているのだ。複雑なプログラミングからシンプルな会話へのこの移行は、モバイルロボットが産業界、商業施設、そして最終的には私たちの家庭にまで、導入を劇的に加速させる可能性を秘めている「パラダイムシフト」を意味する。もはや、ド派手なバク宙を決めるロボットだけの話ではない。次にあなたが何をさせたいのかを、ロボット自身が理解する時代が、いよいよ幕を開けるのだ。






