भारत में AI डीपफेक पर होगी सख्ती! 20 फरवरी 2026 से लागू होंगे नए IT नियम, AI से बनाए वीडियो का खेल अब नहीं चलेगा,3 घंटे में हटाने होंगे भ्रामक और फेक वीडियो,और क्या क्या होंगे बदलाव ?लिंक में पढ़ें पूरी खबर

India will crack down on AI deepfakes! New IT rules will come into effect on February 20, 2026. The use of AI-generated videos will no longer be tolerated. Misleading and fake videos will have to be

डिजिटल युग में तेजी से बदलती तकनीक के बीच भारत सरकार ने आर्टिफिशियल इंटेलिजेंस (AI) से तैयार होने वाली सामग्री को लेकर बड़ा कदम उठाया है। नए संशोधनों के तहत अब सोशल मीडिया पर किसी मशहूर व्यक्ति की शक्ल, आवाज़ या पहचान का इस्तेमाल कर बनाई गई भ्रामक या नकली सामग्री पर कड़ी निगरानी रखी जाएगी। विशेषज्ञों का मानना है कि यह कदम राजनीतिक और सामाजिक स्तर पर फैलने वाली भ्रामक जानकारी पर भी असर डाल सकता है।


केंद्र सरकार ने सूचना प्रौद्योगिकी (इंटरमीडियरी गाइडलाइंस और डिजिटल मीडिया एथिक्स कोड) नियम, 2021 में महत्वपूर्ण संशोधन किए हैं। इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) द्वारा 10 फरवरी 2026 को अधिसूचित ये संशोधन 20 फरवरी 2026 से लागू होंगे। इन संशोधनों का मुख्य उद्देश्य AI द्वारा तैयार या संशोधित कंटेंट को नियामकीय ढांचे के भीतर लाना है।
सरकार ने स्पष्ट किया है कि अब “सूचना” की परिभाषा में “सिंथेटिकली जेनरेटेड इंफॉर्मेशन” भी शामिल होगी। इसका मतलब है कि यदि कोई गैरकानूनी गतिविधि AI-जनित कंटेंट के माध्यम से की जाती है, तो उस पर वही कार्रवाई होगी जो अब तक सामान्य डिजिटल कंटेंट पर लागू होती रही है।

 


संशोधित नियमों के तहत सोशल मीडिया और अन्य इंटरमीडियरी प्लेटफॉर्म्स की जिम्मेदारियों को और सख्त किया गया है। अब सभी प्लेटफॉर्म्स को कम से कम हर तीन महीने में यूजर्स को स्पष्ट रूप से सूचित करना होगा कि नियमों या पॉलिसी का उल्लंघन करने पर अकाउंट निलंबित या समाप्त किया जा सकता है। इसके अलावा, यूजर्स को यह भी चेतावनी देनी होगी कि कानूनन अपराध की स्थिति में दंडात्मक कार्रवाई या जुर्माना लगाया जा सकता है।
सरकार ने AI-जनित कंटेंट की स्पष्ट परिभाषा भी तय की है। इसके तहत वह ऑडियो-विजुअल सामग्री आएगी, जिसे कंप्यूटर या एल्गोरिदमिक तकनीकों के माध्यम से तैयार या संशोधित किया गया हो और जो वास्तविक व्यक्ति या घटना जैसी प्रतीत होती हो। हालांकि, सामान्य तकनीकी प्रक्रियाएं जैसे एडिटिंग, अनुवाद, ट्रांसक्रिप्शन, शैक्षणिक सामग्री या रिसर्च कार्य इस दायरे में शामिल नहीं होंगे, बशर्ते वे भ्रामक या झूठे रिकॉर्ड न बनाते हों।
नए नियमों के अनुसार, AI से तैयार कंटेंट को स्पष्ट रूप से “AI-जनित” या “सिंथेटिक” के रूप में लेबल करना अनिवार्य होगा। जहां संभव हो, वहां कंटेंट में स्थायी मेटाडेटा या प्रोवेनेंस सिस्टम जोड़ना होगा, ताकि यह पता लगाया जा सके कि सामग्री किस तकनीकी स्रोत से तैयार की गई है। प्लेटफॉर्म्स को ऐसे लेबल या मेटाडेटा हटाने या बदलने की अनुमति देने से भी रोक दिया गया है।
इसके अलावा, महत्वपूर्ण सोशल मीडिया इंटरमीडियरी प्लेटफॉर्म्स को यूजर्स से यह घोषणा करवानी होगी कि अपलोड किया गया कंटेंट AI-जनित है या नहीं। प्लेटफॉर्म्स को इसकी सत्यता जांचने के लिए ऑटोमेटेड तकनीकी टूल्स का उपयोग करना होगा। यदि कंटेंट AI-जनित पाया जाता है, तो उसे स्पष्ट चेतावनी के साथ प्रदर्शित करना जरूरी होगा।
नए संशोधनों में अनुपालन से जुड़ी समयसीमाओं को भी काफी कम कर दिया गया है। कानूनी टेकडाउन आदेशों का पालन अब 36 घंटे के बजाय केवल तीन घंटे में करना होगा। शिकायतों के निपटान की समयसीमा 15 दिनों से घटाकर सात दिन कर दी गई है। वहीं, आपात मामलों में कार्रवाई की अवधि 72 घंटे से घटाकर 36 घंटे कर दी गई है, जबकि कुछ संवेदनशील मामलों में कंटेंट हटाने के लिए केवल दो घंटे का समय निर्धारित किया गया है।
सरकार ने यह भी स्पष्ट किया है कि यदि किसी प्लेटफॉर्म को AI-जनित सिंथेटिक कंटेंट से जुड़े उल्लंघन की जानकारी मिलती है, तो उसे तत्काल कार्रवाई करनी होगी। इसमें कंटेंट हटाना, अकाउंट निलंबित करना और आवश्यक होने पर संबंधित एजेंसियों को रिपोर्ट करना शामिल होगा। साथ ही यह भी स्पष्ट किया गया है कि ऐसे कंटेंट को हटाना आईटी अधिनियम की धारा 79(2) के तहत मिलने वाले ‘सेफ हार्बर’ संरक्षण का उल्लंघन नहीं माना जाएगा।
विशेषज्ञों के अनुसार, यह संशोधन डिजिटल युग में तेजी से बढ़ते डीपफेक और भ्रामक कंटेंट पर नियंत्रण की दिशा में एक महत्वपूर्ण कदम है। हालांकि, इन नियमों की वास्तविक प्रभावशीलता इस बात पर निर्भर करेगी कि इन्हें जमीनी स्तर पर कितनी पारदर्शिता और सख्ती से लागू किया जाता है।