दरअसल बीते कुछ समय में डीपफेक तकनीक का इस्तेमाल समाज के लिए एक बड़ा खतरा बनकर उभरा है। इस तकनीक के जरिए किसी भी व्यक्ति की आवाज या चेहरा बदलकर ऐसे सटीक नकली वीडियो तैयार किए जा रहे हैं जो पहली नजर में बिल्कुल असली लगते हैं। इनका दुरुपयोग न केवल व्यक्तिगत छवि खराब करने के लिए किया जा रहा है बल्कि राजनीतिक अस्थिरता सांप्रदायिक सौहार्द बिगाड़ने और सामाजिक भ्रम पैदा करने के लिए भी बड़े पैमाने पर हो रहा है। इसी आसन्न खतरे को भांपते हुए सरकार ने सूचना प्रौद्योगिकी IT नियमों में क्रांतिकारी संशोधन किया है।
Intermediary Guidelines and Digital Media Ethics Code 2021 में किए गए इस नए संशोधन के तहत AI आधारित सामग्री को लेकर लक्ष्मण रेखा खींच दी गई है। अब यदि कोई फोटो वीडियो या ऑडियो कृत्रिम मेधा AI से निर्मित है या उसमें जरा सा भी तकनीकी बदलाव किया गया है तो प्लेटफॉर्म्स को उसे प्रमुखता से लेबल करना होगा। इसका सीधा उद्देश्य यह है कि आम इंटरनेट यूजर पहली नजर में ही यह पहचान सके कि जो वह देख या सुन रहा है वह वास्तविक नहीं बल्कि सिंथेटिक मीडिया है। इससे भ्रम की स्थिति पैदा होने से पहले ही समाप्त हो जाएगी।
सिर्फ पहचान ही नहीं बल्कि जवाबदेही को लेकर भी सरकार ने हथौड़ा चलाया है। अब तक सोशल मीडिया कंपनियों को अवैध सामग्री हटाने के लिए 36 घंटे की मोहलत मिलती थी जिसे अब घटाकर केवल 3 घंटे कर दिया गया है। यह समय सीमा इतनी सख्त है कि कंपनियों को अपने कंटेंट मॉडरेशन सिस्टम को पूरी तरह से अपग्रेड करना होगा। यदि कोई प्लेटफॉर्म इस समय सीमा का उल्लंघन करता है तो उसे भारी कानूनी परिणाम और भारी-भरकम दंड भुगतना पड़ सकता है।
नए नियमों के अंतर्गत अब जब भी कोई यूजर कंटेंट अपलोड करेगा तो प्लेटफॉर्म को तकनीकी तौर पर यह सुनिश्चित करना होगा कि यूजर से यह सवाल पूछा जाए कि क्या सामग्री AI द्वारा संशोधित है। यदि जवाब हाँ है तो सिस्टम स्वतः ही उस पर एक वाटरमार्क या लेबल चस्पा कर देगा। सरकार का मानना है कि यह कदम डिजिटल इकोसिस्टम में पारदर्शिता लाएगा और जवाबदेही तय करेगा। विशेषज्ञों ने भी इस निर्णय का स्वागत करते हुए कहा है कि तकनीक अपने आप में बुरी नहीं होती लेकिन उसका बिना जिम्मेदारी वाला उपयोग खतरनाक है। 20 फरवरी 2026 से लागू होने वाली यह व्यवस्था भारत को डिजिटल सुरक्षा के मामले में दुनिया के अग्रणी देशों की कतार में खड़ा कर देगी।
