The Dawn of AI Deepfakes in 5th Generation Warfare: Need For Regional Framework To Counter Sinister Threat
On the evening of 10th November, a car exploded near Delhi’s Red Fort which took the lives of 13 people. Within the next six hours of the explosion, a confessional video in perfect Hindi language from Jaish-e-Muhammad starts circulating on WhatsApp and national television in India. In the next 12 hours the video had been seen by 40 million people. But what made it intriguing was that within 24 hours many of the AI detection tools marked the video 99.9% synthetic.
We have entered an era where the most dangerous explosion is not the one that destroys the buildings or kills the hundreds of people but the one that detonates into the billions of minds with no time. It is now everywhere, in everyone’s access. This is terrifying but new reality: generative AI has not just entered our lives but dangerously reshaped them. AI is making its way dangerously in every aspect of life. Every technology has both good and bad impacts on people, but whenever technologies have been indulged in the defense field their effects have automatically become devastating.
When we look into the current security environment across the world, it has been totally changed from traditional to non-traditional warfare. Traditional warfare, which involved the different conventional techniques with the use of manpower, has now totally transformed into 5th Generation Warfare (GWF), which has already been launched on the tactical level where the battlefield is perception itself. The objective of 5th GWF is not to conquer the land or to defeat any military but to destroy the enemy’s ability to form a coherent picture of reality. Key characteristics of 5th generation warfare include minimal violence or absence of violence, weapons being narrative, and the most important part being when the target population voluntarily self-destructs the reality. One of the most dangerous parts of this warfare and digital landscape is that defense is nearly impossible because whenever anything circulates on media within minutes and hours, it has already shaped people's perception before the counter-response comes.
Deepfakes Fracturing Minds Of Millions
One of the most recent manifestations of 5th GWF with the use of AI content came to the forefront, which could possibly leave a devastating impact not on the ground level but in the minds of people. On the evening of 10th November, a car exploded near Delhi’s Red Fort which took the lives of 13 people. Within the next six hours of the explosion, a confessional video in perfect Hindi language from Jaish-e-Muhammad starts circulating on WhatsApp and national television in India. In the next 12 hours the video had been seen by 40 million people. But what made it intriguing was that within 24 hours many of the AI detection tools marked the video 99.9% synthetic. The point to ponder: how rapidly the video circulated on digital platforms and, even before its authenticity was confirmed, had already colonized millions of minds. People don’t even believe the government’s statements when the truth is revealed; many stated that the government might want to hide something (reality) from the public because people believe what they firstly observed. Many people may label this episode as journalistic negligence; but it could be a fully matured demonstration of AI as a decisive enabler of the 5th GWF.
Before 2023, or when the 5th GWF was introduced, it remained expensive, and many of the people were not even aware of it. It was mostly done by spreading fake news and using photoshops, which takes days, and those who are less vulnerable to technology were less effective. Now generative AI collapsed that time duration from days to minutes and its accessibility from costly to almost free. In the case of the Red Fort attack, there were initially eight people who died, but in the cognitive domain, the blast had fractured the minds of millions of Indian people. Those minds are permanently fractured with collective perception building. Fact-checking organizations in India debunked the video within 18 hours, which was a quick response, but it didn’t matter to most. What actually matters is the number of people who had already formed their beliefs in the starting hours - three to six hours- when no one was even aware of its authenticity, not even the fact-checkers.
The AI technology in the digital landscape has devastating effects, and everyone is under the same threat. In a future scenario, any terrorist attack can be linked to any region or nation before the actual fact even gets known. An election can be politicized before the few hours of election when the damage control will become impossible. Political leaders can be threatened by using generative AI videos and photos and their image can be tarnished.
While checking the facts, it is obvious that the Delhi blast was a perfect manifestation of 5th GWF with the demonstration of generative AI. The timing of the blast was right before the Bihar election. The narrative it gave across the country was that Islamic terror and Pakistani hands were behind the attack, which instantly created polarization in poll-bound states. The narrative was not only spread verbally and on social media platforms, but many mainstream media (TV channels) aired the fake video to give it institutional credibility (but in reality, it raises questions over institutional credibility). At the same time many fake accounts and conspiracy theorists started saying that the government was hiding the real story from the people, helping to keep the intended narrative alive. In 5th GWF, truth only matters in a version that people want to believe. Similarly, after the video was proven fake, millions of people genuinely believed that a Pakistani terrorist confessed to the attack.
Generative AI Content Misleading People
The Delhi attack is not the only but a significant case. In Manipur, from 2023 till date, fake videos of Kukis and Meitis (tribes) are prolonging the ethnic violence. In 2024 Bangladesh protests, AI-generated videos of Indian agents shooting students went viral, which led to anti-India protests. In 2020, during the Galwan clashes, deepfake audio of Chinese soldiers surrendering went viral before it was debunked in 48 hours. All these examples have left people’s minds with so many blurred concepts that are far from reality.
India is not the only country which is going through this dangerous pattern but the emerging trend of generative AI content is taking lead across the globe. In other countries like in Taiwan during 2024 elections, deepfake audio of presidential candidate went viral before the elections. In another case, South Korea detected 129 deepfakes during 2024 elections and banned them.
In 2025, a deepfake trend surge can be observed in India amid political and diplomatic tension. As per a report, India could lose 70.000 crore rupees due deepfake frauds in 2025 alone. Tools such as voice changing and remixing are cheaply available, with India facing nearly 1000 reported cases monthly. Instead of taking responsible measures to control the misuse of technology among citizens, authorities are seen to exploit it for political gains.
Needed Real-time Forensics And Pre-Debunking
The Red Fort blast and its cognitive detonation is not only devastating but alarming for the whole Indo-Pacific region. States cannot counter the cognitive effects when the deaths of 13 people have fractured the millions of minds in few hours. India, with the collaboration of regional states, needs to initiate real-time forensic for deepfakes and transparent pre-debunking scale for elections.
To mitigate the threat, a regional framework will be needed. As the threat has globally emerged, Cognitive Task Forces may be needed to control its sinister effects. India can also use the pre-debunking model like Israel and Taiwan to counter the growing threat of generative AI in 5th GWF because its effects on digital platforms cannot be restricted once it starts targeting common people. On an institutional level, its proliferation can be controlled if the state really wants to limit its effects; otherwise the results could be devastating.
(The author is a political analyst and columnist with a deep interest in South Asian geopolitics, international diplomacy and policy reform. He graduated from King's College London with a focus on global governance and is passionate about narrowing the disparity between academia and policy making. Views expressed are personal. He can be contacted at aaravsharmaa245@gmail.com)
In Hindi (Translation Courtesy Generative AI)
एआई डीपफेक्स का उदय और 5वीं पीढ़ी के युद्ध की चुनौती: इस भयावह ख़तरे का मुकाबला करने के लिए क्षेत्रीय ढाँचे की आवश्यकता
आरव शर्मा
10 नवंबर की शाम को दिल्ली के लाल किले के पास एक कार में विस्फोट हुआ, जिसमें 13 लोगों की जान चली गई। विस्फोट के छह घंटे के भीतर, जैश-ए-मोहम्मद की ओर से एक बेदाग़ हिंदी में “स्वीकारोक्ति वीडियो” व्हाट्सऐप और भारत के राष्ट्रीय टीवी चैनलों पर प्रसारित होने लगा। अगले 12 घंटों में यह वीडियो 4 करोड़ लोगों तक पहुँच चुका था। लेकिन सबसे चौंकाने वाली बात यह थी कि 24 घंटे के भीतर कई एआई डिटेक्शन टूल्स ने इस वीडियो को 99.9% सिंथेटिक (कृत्रिम) बताया।
हम अब उस युग में प्रवेश कर चुके हैं जहाँ सबसे घातक विस्फोट वह नहीं है जो इमारतें ढहा दे या सैकड़ों लोगों की जान ले ले, बल्कि वह है जो अरबों दिमागों में पलक झपकते ही मानसिक विस्फोट कर दे। यह अब हर जगह है, सबकी पहुँच में है। यह डरावना है लेकिन हमारी नई वास्तविकता है—जनरेटिव एआई न केवल हमारे जीवन में प्रवेश कर चुका है, बल्कि उन्हें खतरनाक रूप से बदल भी रहा है। हर तकनीक के अच्छे और बुरे दोनों प्रभाव होते हैं, लेकिन जब तकनीक रक्षा क्षेत्र में प्रवेश करती है, तो उसके परिणाम स्वभावतः विनाशकारी हो जाते हैं।
5वीं पीढ़ी का युद्ध—जहाँ युद्ध का मैदान “धारणा” है
दुनिया की सुरक्षा व्यवस्था पारंपरिक युद्ध से हटकर अब गैर-पारंपरिक युद्ध की ओर मुड़ चुकी है। पारंपरिक युद्ध जहाँ हथियारों और मानव-शक्ति से लड़ाए जाते थे, वहीं आधुनिक सुरक्षा वातावरण 5वीं पीढ़ी के युद्ध (5th Generation Warfare—5GWF) में बदल चुका है, जहाँ युद्ध का मैदान “धारणा” है।
5GWF का उद्देश्य किसी भूमि पर कब्ज़ा करना या सेना को हराना नहीं, बल्कि दुश्मन की वास्तविकता को समझने की क्षमता को नष्ट करना है। इसकी मुख्य विशेषताएँ हैं—
-
हिंसा का न के बराबर या पूरी तरह अनुपस्थित होना
-
नैरेटिव ही हथियार बन जाना
-
लक्षित आबादी का स्वेच्छा से गलत वास्तविकता को स्वीकार कर लेना
इस डिजिटल युद्धभूमि का सबसे खतरनाक पहलू यह है कि इसका बचाव लगभग असंभव है। कुछ मिनटों या घंटों में जो भी सामग्री फैलती है, वह किसी भी प्रतिवाद आने से पहले ही लोगों की धारणाओं को स्थायी रूप से आकार दे चुकी होती है।
डीपफेक्स—लाखों दिमाग़ों को तोड़ने वाला हथियार
10 नवंबर की घटना इसका सबसे हालिया उदाहरण है। लाल किले के पास विस्फोट के तुरंत बाद फैलाया गया वीडियो इतनी तेजी से फैला कि उसकी सत्यता की पुष्टि होने से पहले ही उसने करोड़ों लोगों के मन में एक ख़ास नैरेटिव बैठा दिया।
सरकार द्वारा सच्चाई बताने के बाद भी बहुत से लोग उस पर विश्वास नहीं कर रहे थे। कई लोगों ने कहा कि “सरकार सच्चाई छुपा रही है।” कारण स्पष्ट है—लोग वही मानते हैं जो उन्होंने सबसे पहले देखा।
कई लोग इसे “पत्रकारीय लापरवाही” कहकर छोड़ सकते हैं, लेकिन असल में यह 5GWF के एक परिपक्व और खतरनाक प्रदर्शन का उदाहरण था।
2023 से पहले डीपफेक बनाना महँगा और कठिन था। फोटोशॉप या नकली वीडियो बनाने में कई दिन लग जाते थे। लेकिन अब जनरेटिव एआई ने इस समय को दिनों से मिनटों में बदल दिया है और इसकी उपलब्धता महँगी से लगभग मुफ्त हो चुकी है।
लाल किले की घटना में वास्तव में 8 लोग मारे गए थे, लेकिन डिजिटल दुनिया में इस विस्फोट ने लाखों दिमाग़ों को तोड़ दिया। तथ्य-जाँच संगठनों ने 18 घंटे में वीडियो को फेक बता दिया—पर यह मायने नहीं रखता। मायने यह रखता है कि पहले 3–6 घंटों में कितने लोग अपनी स्थायी धारणा बना चुके थे।
एआई सामग्री और 5GWF—खतरा केवल भारत तक सीमित नहीं
भविष्य में किसी भी आतंकी हमले को किसी भी देश या समूह से जोड़ा जा सकता है, इससे पहले कि सच्चाई सामने आए। चुनावों से ठीक पहले डीपफेक्स किसी भी माहौल को पलट सकते हैं, जिससे नुकसान की भरपाई नामुमकिन हो जाएगी।
लाल किले का विस्फोट बिहार चुनाव से ठीक पहले हुआ था। इसका नैरेटिव पूरे देश में यह बना कि इसके पीछे “इस्लामी आतंकवाद और पाकिस्तानी हाथ” हैं, जिससे चुनावी राज्यों में ध्रुवीकरण हुआ।
मुख्यधारा के टीवी चैनलों ने भी इस वीडियो को चलाया, जिसने इसे “संस्थागत विश्वसनीयता” दे दी—हालाँकि इससे संस्थाओं की विश्वसनीयता पर भी सवाल उठे।
वीडियो फेक सिद्ध होने के बाद भी लाखों लोग मानते रहे कि यह “पाकिस्तानी आतंकी की स्वीकारोक्ति” थी।
भारत ही नहीं, दुनिया भर में एआई डीपफेक्स का खतरा बढ़ रहा है
-
मणिपुर (2023–आज तक): कुकी और मैतेई समुदायों के बीच हिंसा बढ़ाने में डीपफेक वीडियो फैले।
-
बांग्लादेश (2024): एआई वीडियो में भारतीय एजेंटों को छात्रों पर गोली चलाते दिखाया गया—जिससे एंटी-इंडिया प्रदर्शन भड़के।
-
गलवान (2020): चीनी सैनिकों के “सरेंडर” की डीपफेक ऑडियो वायरल हुई।
दुनिया में भी स्थिति समान है—
-
ताइवान (2024): राष्ट्रपति पद के उम्मीदवार की डीपफेक ऑडियो चुनाव से पहले वायरल।
-
दक्षिण कोरिया: 2024 चुनावों में 129 डीपफेक पकड़े गए और बैन किए गए।
2025 में भारत में डीपफेक्स की बाढ़ जैसी स्थिति है। एक रिपोर्ट के अनुसार भारत 2025 में डीपफेक धोखाधड़ी से 70,000 करोड़ रुपये गंवा सकता है। हर महीने लगभग 1000 मामले रिपोर्ट होते हैं।
समस्या यह है कि तकनीक के दुरुपयोग को रोकने के बजाय इसे राजनीतिक लाभ के लिए इस्तेमाल किया जा रहा है।
ज़रूरत है—रीयल-टाइम फोरेंसिक, प्री-डीबंकिंग और क्षेत्रीय ढाँचे की
लाल किले के विस्फोट ने दिखाया कि सिर्फ 13 मौतों की घटना ने कुछ घंटों में लाखों दिमाग़ों को हिला दिया। इंडो-पैसिफिक क्षेत्र के लिए यह चेतावनी है।
भारत को क्षेत्रीय देशों के साथ मिलकर—
-
रीयल-टाइम डीपफेक फोरेंसिक
-
चुनावों के लिए पारदर्शी प्री-डीबंकिंग मॉडल
जैसे कदम उठाने होंगे।
इज़रायल और ताइवान के प्री-डीबंकिंग मॉडल भारत के लिए उपयोगी हो सकते हैं। ज़रूरी है कि इस खतरे को संस्थागत स्तर पर रोका जाए—वरना परिणाम बेहद विनाशकारी होंगे।
(लेखक दक्षिण एशियाई भू-राजनीति, अंतरराष्ट्रीय कूटनीति और नीतिगत सुधार में गहरी रुचि रखने वाले राजनीतिक विश्लेषक और स्तंभकार हैं। उन्होंने किंग्स कॉलेज लंदन से वैश्विक शासन पर विशेष फोकस के साथ अध्ययन किया है। उनसे संपर्क किया जा सकता है: aaravsharmaa245@gmail.com)

Post a Comment