Tesla FSD v14、人間のハンドジェスチャーを認識

テスラの最新Full Self-Driving (Supervised)ベータ版、バージョンv14.1.3が、どうやら人間顔負けの新技、つまり手信号の理解を習得したようです。長年のFSDテスターであるチャック・クック氏が投稿した動画には、テスラ車両が一時的に閉鎖された道路で誘導員の指示を正確に解釈し、それに応じてルートを調整する様子が映し出されています。このアップデートは現在、アーリーアクセス・テスター向けに展開中です。

このクリップは、車両が誘導員のジェスチャーを認識し、ドライバーディスプレイにその指示を可視化し、その後ルートを再設定する様子を鮮やかに示しています。これまで自動運転システムは、静的で標準化された標識の読み取りには長けていました。しかし、交通整理をする人間の、繊細で、時に独特なジェスチャーを解釈することは、全く異なるレベルの計算複雑性を要求します。これは、人間ドライバーでさえ時折間違えることがある領域なのですから、AIにとってどれほどの難題か想像に難くありません。

v14ソフトウェアブランチは、テスラがRobotaxiプログラムからの学習を取り入れ、現実世界のナビゲーションを改善する画期的な進歩として喧伝してきました。v14.1.3の公式リリースノートには、閉鎖された道路や迂回路への対応改善が記載されていますが、この人間によるジェスチャー処理能力は、システムの状況認識における、公式には記載されていないながらも非常に重要な進歩と言えるでしょう。

これがなぜ重要なのか?

この開発は、単なる物体認識を超え、意図の解釈という領域への極めて重要な一歩を記すものです。人間の誘導に従って、混沌とし、予測不可能な工事現場の環境をナビゲートすることは、長らく自動運転システムを悩ませてきた古典的な「エッジケース」でした。一時停止標識の読み取りは解決済みの問題ですが、人を手招きして先に行かせるという指示を理解することは、真のレベル4または5の自律走行に求められる、流動的で現実世界への適応性へと繋がる基礎的な動きです。これは、単に交通規則に従うシステムから、文脈の中でそれらを理解し始めるシステムへの移行を示唆しているのです。