एआई डीपफेक्स का उदय और 5वीं पीढ़ी के युद्ध की चुनौती: इस भयावह ख़तरे का मुकाबला करने के लिए क्षेत्रीय ढाँचे की आवश्यकता
10 नवंबर की शाम को दिल्ली के लाल किले के पास एक कार में विस्फोट हुआ, जिसमें 13 लोगों की जान चली गई। विस्फोट के छह घंटे के भीतर, जैश-ए-मोहम्मद की ओर से एक बेदाग़ हिंदी में “स्वीकारोक्ति वीडियो” व्हाट्सऐप और भारत के राष्ट्रीय टीवी चैनलों पर प्रसारित होने लगा। अगले 12 घंटों में यह वीडियो 4 करोड़ लोगों तक पहुँच चुका था। लेकिन सबसे चौंकाने वाली बात यह थी कि 24 घंटे के भीतर कई एआई डिटेक्शन टूल्स ने इस वीडियो को 99.9% सिंथेटिक (कृत्रिम) बताया।
10 नवंबर की शाम को दिल्ली के लाल किले के पास एक कार में विस्फोट हुआ, जिसमें 13 लोगों की जान चली गई। विस्फोट के छह घंटे के भीतर, जैश-ए-मोहम्मद की ओर से एक बेदाग़ हिंदी में “स्वीकारोक्ति वीडियो” व्हाट्सऐप और भारत के राष्ट्रीय टीवी चैनलों पर प्रसारित होने लगा। अगले 12 घंटों में यह वीडियो 4 करोड़ लोगों तक पहुँच चुका था। लेकिन सबसे चौंकाने वाली बात यह थी कि 24 घंटे के भीतर कई एआई डिटेक्शन टूल्स ने इस वीडियो को 99.9% सिंथेटिक (कृत्रिम) बताया।
हम अब उस युग में प्रवेश कर चुके हैं जहाँ सबसे घातक विस्फोट वह नहीं है जो इमारतें ढहा दे या सैकड़ों लोगों की जान ले ले, बल्कि वह है जो अरबों दिमागों में पलक झपकते ही मानसिक विस्फोट कर दे। यह अब हर जगह है, सबकी पहुँच में है। यह डरावना है लेकिन हमारी नई वास्तविकता है—जनरेटिव एआई न केवल हमारे जीवन में प्रवेश कर चुका है, बल्कि उन्हें खतरनाक रूप से बदल भी रहा है। हर तकनीक के अच्छे और बुरे दोनों प्रभाव होते हैं, लेकिन जब तकनीक रक्षा क्षेत्र में प्रवेश करती है, तो उसके परिणाम स्वभावतः विनाशकारी हो जाते हैं।
5वीं पीढ़ी का युद्ध—जहाँ युद्ध का मैदान “धारणा” है
दुनिया की सुरक्षा व्यवस्था पारंपरिक युद्ध से हटकर अब गैर-पारंपरिक युद्ध की ओर मुड़ चुकी है। पारंपरिक युद्ध जहाँ हथियारों और मानव-शक्ति से लड़ाए जाते थे, वहीं आधुनिक सुरक्षा वातावरण 5वीं पीढ़ी के युद्ध (5th Generation Warfare—5GWF) में बदल चुका है, जहाँ युद्ध का मैदान “धारणा” है।
5GWF का उद्देश्य किसी भूमि पर कब्ज़ा करना या सेना को हराना नहीं, बल्कि दुश्मन की वास्तविकता को समझने की क्षमता को नष्ट करना है। इसकी मुख्य विशेषताएँ हैं—
-
हिंसा का न के बराबर या पूरी तरह अनुपस्थित होना
-
नैरेटिव ही हथियार बन जाना
-
लक्षित आबादी का स्वेच्छा से गलत वास्तविकता को स्वीकार कर लेना
इस डिजिटल युद्धभूमि का सबसे खतरनाक पहलू यह है कि इसका बचाव लगभग असंभव है। कुछ मिनटों या घंटों में जो भी सामग्री फैलती है, वह किसी भी प्रतिवाद आने से पहले ही लोगों की धारणाओं को स्थायी रूप से आकार दे चुकी होती है।
डीपफेक्स—लाखों दिमाग़ों को तोड़ने वाला हथियार
10 नवंबर की घटना इसका सबसे हालिया उदाहरण है। लाल किले के पास विस्फोट के तुरंत बाद फैलाया गया वीडियो इतनी तेजी से फैला कि उसकी सत्यता की पुष्टि होने से पहले ही उसने करोड़ों लोगों के मन में एक ख़ास नैरेटिव बैठा दिया।
सरकार द्वारा सच्चाई बताने के बाद भी बहुत से लोग उस पर विश्वास नहीं कर रहे थे। कई लोगों ने कहा कि “सरकार सच्चाई छुपा रही है।” कारण स्पष्ट है—लोग वही मानते हैं जो उन्होंने सबसे पहले देखा।
कई लोग इसे “पत्रकारीय लापरवाही” कहकर छोड़ सकते हैं, लेकिन असल में यह 5GWF के एक परिपक्व और खतरनाक प्रदर्शन का उदाहरण था।
2023 से पहले डीपफेक बनाना महँगा और कठिन था। फोटोशॉप या नकली वीडियो बनाने में कई दिन लग जाते थे। लेकिन अब जनरेटिव एआई ने इस समय को दिनों से मिनटों में बदल दिया है और इसकी उपलब्धता महँगी से लगभग मुफ्त हो चुकी है।
लाल किले की घटना में वास्तव में 8 लोग मारे गए थे, लेकिन डिजिटल दुनिया में इस विस्फोट ने लाखों दिमाग़ों को तोड़ दिया। तथ्य-जाँच संगठनों ने 18 घंटे में वीडियो को फेक बता दिया—पर यह मायने नहीं रखता। मायने यह रखता है कि पहले 3–6 घंटों में कितने लोग अपनी स्थायी धारणा बना चुके थे।
एआई सामग्री और 5GWF—खतरा केवल भारत तक सीमित नहीं
भविष्य में किसी भी आतंकी हमले को किसी भी देश या समूह से जोड़ा जा सकता है, इससे पहले कि सच्चाई सामने आए। चुनावों से ठीक पहले डीपफेक्स किसी भी माहौल को पलट सकते हैं, जिससे नुकसान की भरपाई नामुमकिन हो जाएगी।
लाल किले का विस्फोट बिहार चुनाव से ठीक पहले हुआ था। इसका नैरेटिव पूरे देश में यह बना कि इसके पीछे “इस्लामी आतंकवाद और पाकिस्तानी हाथ” हैं, जिससे चुनावी राज्यों में ध्रुवीकरण हुआ।
मुख्यधारा के टीवी चैनलों ने भी इस वीडियो को चलाया, जिसने इसे “संस्थागत विश्वसनीयता” दे दी—हालाँकि इससे संस्थाओं की विश्वसनीयता पर भी सवाल उठे।
वीडियो फेक सिद्ध होने के बाद भी लाखों लोग मानते रहे कि यह “पाकिस्तानी आतंकी की स्वीकारोक्ति” थी।
भारत ही नहीं, दुनिया भर में एआई डीपफेक्स का खतरा बढ़ रहा है
-
मणिपुर (2023–आज तक): कुकी और मैतेई समुदायों के बीच हिंसा बढ़ाने में डीपफेक वीडियो फैले।
-
बांग्लादेश (2024): एआई वीडियो में भारतीय एजेंटों को छात्रों पर गोली चलाते दिखाया गया—जिससे एंटी-इंडिया प्रदर्शन भड़के।
-
गलवान (2020): चीनी सैनिकों के “सरेंडर” की डीपफेक ऑडियो वायरल हुई।
दुनिया में भी स्थिति समान है—
-
ताइवान (2024): राष्ट्रपति पद के उम्मीदवार की डीपफेक ऑडियो चुनाव से पहले वायरल।
-
दक्षिण कोरिया: 2024 चुनावों में 129 डीपफेक पकड़े गए और बैन किए गए।
2025 में भारत में डीपफेक्स की बाढ़ जैसी स्थिति है। एक रिपोर्ट के अनुसार भारत 2025 में डीपफेक धोखाधड़ी से 70,000 करोड़ रुपये गंवा सकता है। हर महीने लगभग 1000 मामले रिपोर्ट होते हैं।
समस्या यह है कि तकनीक के दुरुपयोग को रोकने के बजाय इसे राजनीतिक लाभ के लिए इस्तेमाल किया जा रहा है।
ज़रूरत है—रीयल-टाइम फोरेंसिक, प्री-डीबंकिंग और क्षेत्रीय ढाँचे की
लाल किले के विस्फोट ने दिखाया कि सिर्फ 13 मौतों की घटना ने कुछ घंटों में लाखों दिमाग़ों को हिला दिया। इंडो-पैसिफिक क्षेत्र के लिए यह चेतावनी है।
भारत को क्षेत्रीय देशों के साथ मिलकर—
-
रीयल-टाइम डीपफेक फोरेंसिक
-
चुनावों के लिए पारदर्शी प्री-डीबंकिंग मॉडल
जैसे कदम उठाने होंगे।
इज़रायल और ताइवान के प्री-डीबंकिंग मॉडल भारत के लिए उपयोगी हो सकते हैं। ज़रूरी है कि इस खतरे को संस्थागत स्तर पर रोका जाए—वरना परिणाम बेहद विनाशकारी होंगे।
(लेखक दक्षिण एशियाई भू-राजनीति, अंतरराष्ट्रीय कूटनीति और नीतिगत सुधार में गहरी रुचि रखने वाले राजनीतिक विश्लेषक और स्तंभकार हैं। उन्होंने किंग्स कॉलेज लंदन से वैश्विक शासन पर विशेष फोकस के साथ अध्ययन किया है। उनसे संपर्क किया जा सकता है) (Translation courtesy Generative AI)

Post a Comment