भारत में AI डीपफेक पर होगी सख्ती! 20 फरवरी 2026 से लागू होंगे नए IT नियम, AI से बनाए वीडियो का खेल अब नहीं चलेगा,3 घंटे में हटाने होंगे भ्रामक और फेक वीडियो,और क्या क्या होंगे बदलाव ?लिंक में पढ़ें पूरी खबर
डिजिटल युग में तेजी से बदलती तकनीक के बीच भारत सरकार ने आर्टिफिशियल इंटेलिजेंस (AI) से तैयार होने वाली सामग्री को लेकर बड़ा कदम उठाया है। नए संशोधनों के तहत अब सोशल मीडिया पर किसी मशहूर व्यक्ति की शक्ल, आवाज़ या पहचान का इस्तेमाल कर बनाई गई भ्रामक या नकली सामग्री पर कड़ी निगरानी रखी जाएगी। विशेषज्ञों का मानना है कि यह कदम राजनीतिक और सामाजिक स्तर पर फैलने वाली भ्रामक जानकारी पर भी असर डाल सकता है।

केंद्र सरकार ने सूचना प्रौद्योगिकी (इंटरमीडियरी गाइडलाइंस और डिजिटल मीडिया एथिक्स कोड) नियम, 2021 में महत्वपूर्ण संशोधन किए हैं। इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) द्वारा 10 फरवरी 2026 को अधिसूचित ये संशोधन 20 फरवरी 2026 से लागू होंगे। इन संशोधनों का मुख्य उद्देश्य AI द्वारा तैयार या संशोधित कंटेंट को नियामकीय ढांचे के भीतर लाना है।
सरकार ने स्पष्ट किया है कि अब “सूचना” की परिभाषा में “सिंथेटिकली जेनरेटेड इंफॉर्मेशन” भी शामिल होगी। इसका मतलब है कि यदि कोई गैरकानूनी गतिविधि AI-जनित कंटेंट के माध्यम से की जाती है, तो उस पर वही कार्रवाई होगी जो अब तक सामान्य डिजिटल कंटेंट पर लागू होती रही है।

संशोधित नियमों के तहत सोशल मीडिया और अन्य इंटरमीडियरी प्लेटफॉर्म्स की जिम्मेदारियों को और सख्त किया गया है। अब सभी प्लेटफॉर्म्स को कम से कम हर तीन महीने में यूजर्स को स्पष्ट रूप से सूचित करना होगा कि नियमों या पॉलिसी का उल्लंघन करने पर अकाउंट निलंबित या समाप्त किया जा सकता है। इसके अलावा, यूजर्स को यह भी चेतावनी देनी होगी कि कानूनन अपराध की स्थिति में दंडात्मक कार्रवाई या जुर्माना लगाया जा सकता है।
सरकार ने AI-जनित कंटेंट की स्पष्ट परिभाषा भी तय की है। इसके तहत वह ऑडियो-विजुअल सामग्री आएगी, जिसे कंप्यूटर या एल्गोरिदमिक तकनीकों के माध्यम से तैयार या संशोधित किया गया हो और जो वास्तविक व्यक्ति या घटना जैसी प्रतीत होती हो। हालांकि, सामान्य तकनीकी प्रक्रियाएं जैसे एडिटिंग, अनुवाद, ट्रांसक्रिप्शन, शैक्षणिक सामग्री या रिसर्च कार्य इस दायरे में शामिल नहीं होंगे, बशर्ते वे भ्रामक या झूठे रिकॉर्ड न बनाते हों।
नए नियमों के अनुसार, AI से तैयार कंटेंट को स्पष्ट रूप से “AI-जनित” या “सिंथेटिक” के रूप में लेबल करना अनिवार्य होगा। जहां संभव हो, वहां कंटेंट में स्थायी मेटाडेटा या प्रोवेनेंस सिस्टम जोड़ना होगा, ताकि यह पता लगाया जा सके कि सामग्री किस तकनीकी स्रोत से तैयार की गई है। प्लेटफॉर्म्स को ऐसे लेबल या मेटाडेटा हटाने या बदलने की अनुमति देने से भी रोक दिया गया है।
इसके अलावा, महत्वपूर्ण सोशल मीडिया इंटरमीडियरी प्लेटफॉर्म्स को यूजर्स से यह घोषणा करवानी होगी कि अपलोड किया गया कंटेंट AI-जनित है या नहीं। प्लेटफॉर्म्स को इसकी सत्यता जांचने के लिए ऑटोमेटेड तकनीकी टूल्स का उपयोग करना होगा। यदि कंटेंट AI-जनित पाया जाता है, तो उसे स्पष्ट चेतावनी के साथ प्रदर्शित करना जरूरी होगा।
नए संशोधनों में अनुपालन से जुड़ी समयसीमाओं को भी काफी कम कर दिया गया है। कानूनी टेकडाउन आदेशों का पालन अब 36 घंटे के बजाय केवल तीन घंटे में करना होगा। शिकायतों के निपटान की समयसीमा 15 दिनों से घटाकर सात दिन कर दी गई है। वहीं, आपात मामलों में कार्रवाई की अवधि 72 घंटे से घटाकर 36 घंटे कर दी गई है, जबकि कुछ संवेदनशील मामलों में कंटेंट हटाने के लिए केवल दो घंटे का समय निर्धारित किया गया है।
सरकार ने यह भी स्पष्ट किया है कि यदि किसी प्लेटफॉर्म को AI-जनित सिंथेटिक कंटेंट से जुड़े उल्लंघन की जानकारी मिलती है, तो उसे तत्काल कार्रवाई करनी होगी। इसमें कंटेंट हटाना, अकाउंट निलंबित करना और आवश्यक होने पर संबंधित एजेंसियों को रिपोर्ट करना शामिल होगा। साथ ही यह भी स्पष्ट किया गया है कि ऐसे कंटेंट को हटाना आईटी अधिनियम की धारा 79(2) के तहत मिलने वाले ‘सेफ हार्बर’ संरक्षण का उल्लंघन नहीं माना जाएगा।
विशेषज्ञों के अनुसार, यह संशोधन डिजिटल युग में तेजी से बढ़ते डीपफेक और भ्रामक कंटेंट पर नियंत्रण की दिशा में एक महत्वपूर्ण कदम है। हालांकि, इन नियमों की वास्तविक प्रभावशीलता इस बात पर निर्भर करेगी कि इन्हें जमीनी स्तर पर कितनी पारदर्शिता और सख्ती से लागू किया जाता है।