Tesla का लेटेस्ट Full Self-Driving (Supervised) बीटा, वर्जन v14.1.3, अब बिल्कुल इंसानों की तरह हाथ के इशारे समझने लगा है। जाने-माने FSD टेस्टर Chuck Cook ने एक वीडियो साझा किया है जिसमें टेस्ला की कार एक बंद सड़क पर खड़े फ्लैगमेन (flagman) के इशारों को न सिर्फ सही-सही समझती है, बल्कि उसके निर्देशों के मुताबिक अपना रास्ता भी बदल लेती है। फिलहाल यह अपडेट अर्ली एक्सेस टेस्टर्स के लिए जारी किया गया है।
इस क्लिप में साफ़ देखा जा सकता है कि कार ने कैसे फ्लैगमेन के हाथों के मूवमेंट को पहचाना, उसे ड्राइवर की डिस्प्ले पर विजुअलाइज किया और फिर समझदारी से रूट बदल लिया। सालों से ऑटोनॉमस सिस्टम्स सड़क पर लगे फिक्स्ड साइनबोर्ड पढ़ने में तो माहिर थे, लेकिन ट्रैफिक कंट्रोल कर रहे इंसान के बारीक और कभी-कभी उलझाने वाले इशारों को समझना इंजीनियरिंग का एक अलग ही लेवल है—एक ऐसा लेवल जहाँ कई बार असली इंसान भी गच्चा खा जाते हैं।
Tesla के मुताबिक v14 सॉफ्टवेयर ब्रांच कंपनी के लिए एक बड़ी कामयाबी है। इसमें उनके Robotaxi प्रोग्राम से मिले अनुभवों को शामिल किया गया है ताकि रियल-वर्ल्ड नेविगेशन को और सटीक बनाया जा सके। हालांकि, v14.1.3 के आधिकारिक रिलीज नोट्स में सिर्फ बंद रास्तों और डिटूर (detours) को बेहतर तरीके से हैंडल करने का जिक्र है, लेकिन इंसानी इशारों को डिकोड करने की यह खूबी इस सिस्टम की ‘सिचुएशनल अवेयरनेस’ में एक बड़ी और बिना शोर-शराबे वाली छलांग है।
यह क्यों महत्वपूर्ण है?
यह डेवलपमेंट सिर्फ ‘ऑब्जेक्ट रिकग्निशन’ (चीजों को पहचानना) से आगे बढ़कर ‘इरादे को समझने’ (intent interpretation) की दिशा में एक बड़ा कदम है। कंस्ट्रक्शन ज़ोन जैसी अनिश्चित और अफरातफरी वाली जगहों पर किसी इंसान के निर्देश पर गाड़ी चलाना हमेशा से ऑटोनॉमस ड्राइविंग के लिए एक “एज केस” (बड़ी चुनौती) रहा है। स्टॉप साइन पढ़ना तो अब आम बात हो गई है, लेकिन किसी के हाथ हिलाने पर आगे बढ़ना या रुकना ही वो बुनियादी काबिलियत है जो लेवल 4 या लेवल 5 ऑटोनॉमी (पूर्ण रूप से चालक रहित कार) के लिए जरूरी है। यह संकेत देता है कि Tesla का सिस्टम अब सिर्फ सड़क के नियमों को रट नहीं रहा, बल्कि उन्हें हालात के हिसाब से समझना शुरू कर चुका है।













