सरकार ने डीपफेक पर स्थिति रिपोर्ट प्रस्तुत की

पाठ्यक्रम: GS3/विज्ञान प्रौद्योगिकी

संदर्भ

  • हाल ही में, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने दिल्ली उच्च न्यायालय को एक व्यापक स्थिति रिपोर्ट प्रस्तुत की, जिसमें डीपफेक तकनीक से जुड़ी बढ़ती चिंताओं पर चर्चा की गई।
    • इसमें डीपफेक द्वारा उत्पन्न चुनौतियों पर प्रकाश डाला गया है, विशेष रूप से गलत सूचना, गोपनीयता के उल्लंघन और दुर्भावनापूर्ण उपयोग के संदर्भ में, साथ ही इन जोखिमों को कम करने के लिए कार्रवाई योग्य सिफारिशें भी प्रस्तावित की गई हैं।

डीपफेक टेक्नोलॉजी के बारे में

  • ‘डीपफेक’ शब्द की उत्पत्ति ‘डीप लर्निंग’ से हुई है और ‘फेक’ का तात्पर्य AI द्वारा उत्पन्न सिंथेटिक मीडिया से है जो वास्तविक सामग्री को गढ़े हुए, अति-यथार्थवादी समकक्षों के साथ हेरफेर करता है या प्रतिस्थापित करता है।
  • डीपफेक मॉडल जेनरेटिव एडवर्सरियल नेटवर्क (GAN) का उपयोग करते हैं, जहाँ दो AI मॉडल – जेनरेटर और डिस्क्रिमिनेटर – उत्पन्न सामग्री की प्रामाणिकता में सुधार करने के लिए एक दूसरे के विरुद्ध प्रतिस्पर्धा करते हैं।

डीपफेक का कार्य

  • डेटा संग्रह: AI को लक्ष्य व्यक्ति की वास्तविक छवियों, वीडियो या ऑडियो रिकॉर्डिंग के बड़े डेटासेट पर प्रशिक्षित किया जाता है।
  • फीचर लर्निंग: डीप लर्निंग मॉडल चेहरे की संरचना, भाव और भाषण पैटर्न सीखता है।
  • संश्लेषण और हेरफेर: AI एल्गोरिदम सिंथेटिक मीडिया उत्पन्न करते हैं जो चेहरे बदल सकते हैं, भाव बदल सकते हैं, या आवाज की नकल कर सकते हैं।
  • जनरेटिव एडवर्सरियल नेटवर्क (GANs) के माध्यम से परिशोधन: उत्पन्न सामग्री को यथार्थवाद में सुधार लाने और पता लगाने योग्य विसंगतियों को कम करने के लिए परिष्कृत किया जाता है।

स्थिति रिपोर्ट में प्रमुख चिंताएँ उजागर की गईं

  • एकसमान परिभाषा का अभाव: हितधारकों ने ‘डीपफेक’ के लिए एक मानकीकृत परिभाषा के अभाव पर बल दिया, जिससे ऐसी सामग्री को प्रभावी ढंग से विनियमित करने और पता लगाने के प्रयास जटिल हो गए।
  • चुनावों के दौरान महिलाओं को लक्षित करना: डीपफेक का उपयोग महिलाओं को लक्षित करने के लिए तेजी से किया जा रहा है, विशेष रूप से राज्य चुनावों के दौरान, जिससे गोपनीयता और हानिकारक सामग्री के प्रसार के बारे में गंभीर चिंताएँ उत्पन्न हो रही हैं।

डीपफेक से जुड़ी अन्य चिंताएँ

  • गलत सूचना और राजनीतिक हेरफेर: भारत में, जहाँ सोशल मीडिया प्लेटफॉर्म राजनीतिक विमर्श में महत्त्वपूर्ण भूमिका निभाते हैं, वहाँ डीपफेक वीडियो के माध्यम से  अशांति उत्पन्न करने के लिए हथियार बनाया जा सकता है।
  • राष्ट्रीय सुरक्षा के लिए खतरा: दुर्भावनापूर्ण अभिनेता सरकारी अधिकारियों का रूप धारण करने के लिए डीपफेक का उपयोग कर सकते हैं, जिससे गलत सूचना या यहाँ तक ​​कि साइबर युद्ध की रणनीति बन सकती है जो राष्ट्रीय सुरक्षा के लिए खतरा बन सकती है।
  • वित्तीय धोखाधड़ी और साइबर अपराध: AI-जनरेटेड डीपफेक आवाजों का उपयोग कॉर्पोरेट अधिकारियों की नकल करने के लिए किया गया है, जिससे वित्तीय धोखाधड़ी हुई है।
    • भारत की डिजिटल अर्थव्यवस्था में, ऐसे अपराध व्यवसायों और व्यक्तियों पर गंभीर प्रभाव डाल सकते हैं।
  • गोपनीयता का उल्लंघन और मानहानि: डीपफेक का उपयोग प्रायः गैर-सहमति वाली स्पष्ट सामग्री बनाने के लिए किया जाता है, जो महिलाओं को असंगत रूप से लक्षित करता है।
  • मीडिया में विश्वास को कम करना: जब वास्तविक नकली सामग्री व्यापक रूप से प्रसारित होती है, तो इससे प्रामाणिक पत्रकारिता और साक्ष्य-आधारित रिपोर्टिंग में जनता का विश्वास समाप्त हो जाता है, जिससे लोकतांत्रिक प्रक्रियाएँ प्रभावित होती हैं।

सरकार की प्रतिक्रिया और कानूनी ढाँचा

  • सूचना प्रौद्योगिकी (IT) अधिनियम, 2000: यह साइबर अपराधों के लिए एक व्यापक रूपरेखा प्रदान करता है, लेकिन डीपफेक-संबंधी अपराधों से निपटने के लिए इसमें विशिष्ट प्रावधानों का अभाव है।
    • धारा 66D: डिजिटल माध्यमों का उपयोग करके पहचान की चोरी और छद्मवेश धारण करने पर दण्ड देती है।
    • धारा 67: अश्लील सामग्री के प्रकाशन को दंडित करती है, जिसका उपयोग डीपफेक पोर्नोग्राफ़ी के विरुद्ध किया जा सकता है।
  • व्यक्तिगत डेटा संरक्षण विधेयक ( PDPB) [अब डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023]: इसका उद्देश्य व्यक्तिगत डेटा के संग्रह और उपयोग को विनियमित करना है। इस अधिनियम के तहत व्यक्तिगत पहचान से जुड़े डीपफेक के दुरुपयोग को चुनौती दी जा सकती है।
  • मध्यस्थ दिशानिर्देश और डिजिटल मीडिया आचार संहिता (2021): ये नियम सोशल मीडिया प्लेटफॉर्म्स को डीपफेक सहित हानिकारक सामग्री की सक्रिय रूप से निगरानी करने और उसे हटाने का निर्देश देते हैं, ऐसा न करने पर वे आईटी अधिनियम के अंतर्गत कानूनी प्रतिरक्षा खो सकते हैं।
  • तथ्य-जाँच और AI जाँच पहल: PIB फैक्ट चेक जैसे प्लेटफॉर्म गलत सूचना फैलाने वाले डीपफेक वीडियो का सक्रिय रूप से भंडाफोड़ कर रहे हैं।
    • भारतीय स्टार्ट-अप और शोधकर्ता डीपफेक सामग्री का पता लगाने और उसे चिह्नित करने के लिए AI उपकरण विकसित कर रहे हैं।
  • वैश्विक सहयोग: भारत नीतिगत चर्चाओं और AI अनुसंधान पहलों के माध्यम से डीपफेक से निपटने के लिए वैश्विक तकनीकी फर्मों और सरकारों के साथ सहयोग कर रहा है।

विनियामक चुनौतियाँ

  • मध्यस्थ दायित्व ढाँचे: रिपोर्ट में मध्यस्थ दायित्व ढाँचे पर अत्यधिक निर्भरता के बारे में चिंता जताई गई है, जो यह निर्धारित करता है कि किस सीमा तक प्लेटफार्मों को सामग्री के लिए उत्तरदायी ठहराया जा सकता है।
  • पहचान में कठिनाइयाँ: ऑडियो डीपफेक, विशेष रूप से, पहचान के लिए महत्त्वपूर्ण चुनौतियाँ प्रस्तुत करते हैं, जो उन्नत तकनीकी समाधानों की आवश्यकता को रेखांकित करता है।

रिपोर्ट से अनुशंसाएँ

  • अनिवार्य सामग्री प्रकटीकरण: रिपोर्ट में ऐसे विनियमनों का समर्थन किया गया  है, जिनमें AI-जनित सामग्री का प्रकटीकरण और लेबलिंग आवश्यक हो, ताकि पारदर्शिता एवं जवाबदेही सुनिश्चित हो सके।
  • दुर्भावनापूर्ण तत्वों पर ध्यान केंद्रित करना: सौम्य या रचनात्मक अनुप्रयोगों के बजाय डीपफेक प्रौद्योगिकी के दुर्भावनापूर्ण उपयोगों को लक्षित करने पर जोर दिया गया।
  • बेहतर प्रवर्तन: नए कानून लाने के बजाय, रिपोर्ट में डीपफेक से संबंधित अपराधों से प्रभावी ढंग से निपटने के लिए जाँच और प्रवर्तन एजेंसियों की क्षमता बढ़ाने की सिफारिश की गई है।

Source: IE