डिजिटल बाल दुर्व्यवहार: AI-आधारित शोषण का खतरा

पाठ्यक्रम: GS2/बच्चों से संबंधित मुद्दे; GS3/साइबर सुरक्षा

संदर्भ

  • AI-आधारित शोषण से प्रेरित डिजिटल बाल दुर्व्यवहार एक उभरता हुआ खतरा है, और बच्चों को इन खतरों से बचाने के लिए तत्काल नियामक, तकनीकी और सामाजिक हस्तक्षेप की आवश्यकता है।

डिजिटल बाल दुर्व्यवहार और उसके निहितार्थ

  • डिजिटल बाल शोषण का तात्पर्य ऑनलाइन प्लेटफ़ॉर्म के माध्यम से बच्चों को पहुँचाए जाने वाले किसी भी प्रकार के नुकसान से है। इसमें शामिल हैं:
    • साइबरबुलिंग: सोशल मीडिया, मैसेजिंग ऐप और गेमिंग प्लेटफ़ॉर्म के माध्यम से उत्पीड़न और धमकी।
    • हानिकारक सामग्री के संपर्क में आना: बच्चों का पोर्नोग्राफ़ी, ग्राफ़िक हिंसा {दृश्य मीडिया (जैसे फ़िल्में, टीवी शो, वीडियो गेम) में हिंसा के दृश्यों को बहुत ही स्पष्ट, क्रूर और यथार्थवादी तरीके से दिखाना, जिसमें खून-खराबा, चोटें, और विकृतियाँ शामिल हो सकती हैं} और अनुचित सामग्री के संपर्क में आना।
    • ऑनलाइन ग्रूमिंग: शोषक, नाबालिगों को शोषणकारी संबंधों में फँसाते हैं।
    • बाल यौन शोषण सामग्री (CSAM): यह ऐसी सामग्री (ऑडियो, वीडियो और चित्र) को संदर्भित करता है जो किसी बच्चे का यौन रूप से स्पष्ट चित्रण करती है।
    • पहचान की चोरी और गोपनीयता का उल्लंघन: अवैध गतिविधियों के लिए बच्चों के व्यक्तिगत डेटा का दुरुपयोग।
    • डेटा माइनिंग और गोपनीयता का उल्लंघन: AI एल्गोरिदम व्यवहार संबंधी प्रोफ़ाइल बनाने के लिए शैक्षिक ऐप, सोशल मीडिया और गेमिंग प्लेटफ़ॉर्म से बच्चों के डेटा का विश्लेषण करते हैं, जिसका उपयोग दुर्भावनापूर्ण अभिकर्त्ताओं द्वारा लक्षित संशोधन, उत्पीड़न या पहचान की चोरी के लिए किया जा सकता है।
  • अंतर्राष्ट्रीय AI सुरक्षा रिपोर्ट 2025 में AI उपकरणों की मदद से CSAM के निर्माण, नियंत्रण और प्रसार के आसन्न जोखिम को दर्शाया गया है।
  • इंटरनेट वॉच फाउंडेशन ने अक्टूबर 2024 में खुले वेब पर CSAM के प्रसार को रेखांकित किया।
  • विश्व आर्थिक मंच ने 2023 में इस बात पर प्रकाश डाला कि कैसे जनरेटिव AI जीवन जैसी छवियाँ बना सकता है, विशेषतः बच्चों की।

वर्तमान स्थिति डिजिटल बाल शोषण

  • राष्ट्रीय अपराध रिकॉर्ड ब्यूरो (NCRB ) की रिपोर्ट 2022 के अनुसार, पिछले वर्ष के आँकड़ों की तुलना में बच्चों के विरुद्ध साइबर अपराध में अत्यधिक वृद्धि हुई है। 
  • इसके अतिरिक्त, महिलाओं और बच्चों के विरुद्ध साइबर अपराध रोकथाम (CCPWC) योजना के तत्वावधान में राष्ट्रीय साइबर अपराध रिपोर्टिंग पोर्टल (NCRP) ने अप्रैल 2024 तक 1.94 लाख बाल पोर्नोग्राफी की घटनाएँ दर्ज कीं। 
  • 2019 में, NCRB ने CSAM पर टिप-लाइन रिपोर्ट प्राप्त करने के लिए नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (NCMEC), USA के साथ एक समझौता ज्ञापन पर हस्ताक्षर किए।
    •  मार्च 2024 तक, संबंधित राज्यों और केंद्र शासित प्रदेशों के साथ 69.05 लाख साइबर टिप-लाइन रिपोर्ट साझा की गई हैं।

डिजिटल बाल दुर्व्यवहार से निपटने में चुनौतियाँ

  • मजबूत डिजिटल कानूनों का अभाव: जबकि POCSO अधिनियम और IT अधिनियम जैसे कानून उपस्थित हैं, प्रवर्तन असंगत बना हुआ है, और कानूनी खामियाँ अपराधियों को न्याय से बचने की अनुमति देती हैं।
    • वर्तमान विधायी ढाँचे में AI-जनरेटेड CSAM से निपटने के लिए पर्याप्त सुरक्षा उपायों का अभाव है। 
  • साइबर अपराध की गुमनाम प्रकृति: अपराधी पकड़े न जाने के लिए एन्क्रिप्शन और डार्क वेब का लाभ उठाते हैं।
  •  धीमी कानूनी प्रक्रियाएँ: कानून प्रवर्तन में तकनीकी विशेषज्ञता की कमी के कारण साइबर दुर्व्यवहार के मामलों में दोषसिद्धि में अक्सर देरी होती है। 
  • AI और डीपफेक तकनीक का तेजी से विकास: बच्चों की छवियों में संशोधन करने के लिए डीपफेक टूल का दुरुपयोग किया जा रहा है, जिससे शोषण से निपटने के प्रयास और जटिल हो गए हैं। 
  • रिपोर्टिंग और पीड़ित सहायता में चुनौतियाँ: पीड़ित और उनके परिवार अक्सर सामाजिक कलंक, कानून प्रवर्तन में विश्वास की कमी और फिर से पीड़ित होने के डर के कारण रिपोर्ट करने में संकोच करते हैं। 
  • डिजिटल साक्षरता का अभाव: कई माता-पिता और शिक्षक ऑनलाइन खतरों से अनजान हैं।

सरकारी उपाय और कानूनी ढाँचा

  • सूचना प्रौद्योगिकी (आईटी) अधिनियम, 2000: ऑनलाइन बाल पोर्नोग्राफ़ी, साइबरस्टॉकिंग और पहचान की चोरी को अपराध घोषित करता है।
    • IT अधिनियम 2000 की धारा 67B उन लोगों को दंडित करती है जो बच्चों को यौन रूप से स्पष्ट कृत्यों में चित्रित करने वाली सामग्री को इलेक्ट्रॉनिक रूप में प्रकाशित या प्रसारित करते हैं। 
  • यौन अपराधों से बच्चों का संरक्षण (POCSO) अधिनियम, 2012: ऑनलाइन बाल शोषण को दंडित करने के लिए प्रावधानों को मजबूत किया गया।
    • POCSO की धारा 13, 14 और 15 बच्चों को पोर्नोग्राफ़िक उद्देश्यों के लिए उपयोग करने, किसी भी रूप में बाल पोर्नोग्राफ़ी संगृहीत करने और यौन संतुष्टि के लिए बच्चे का उपयोग करने पर रोक लगाती है। 
  • भारतीय न्याय संहिता (BNS): BNS की धारा 294 अश्लील सामग्री की बिक्री, वितरण या सार्वजनिक प्रदर्शन को दंडित करती है।
    • धारा 295 बच्चों को ऐसी अश्लील वस्तुओं को बेचना, वितरित करना या प्रदर्शित करना अवैध बनाती है। 
  • राष्ट्रीय साइबर अपराध रिपोर्टिंग पोर्टल: नागरिकों को CSAM सहित साइबर अपराध के मामलों की रिपोर्ट करने में सक्षम बनाता है। 
  • सोशल मीडिया कंपनियों के साथ सहयोग: सरकार हानिकारक सामग्री को हटाने के लिए मेटा, गूगल और व्हाट्सएप जैसे प्लेटफॉर्म के साथ काम करती है। 
  • जागरूकता अभियान: डिजिटल इंडिया पहल जैसे कार्यक्रम बच्चों के लिए सुरक्षित इंटरनेट उपयोग को बढ़ावा देते हैं।
    • प्रेस सूचना ब्यूरो (PIB) ने पुष्टि की है कि भारत सरकार ऑनलाइन पोर्नोग्राफी और दुर्व्यवहार से निपटने के उपायों पर सक्रिय रूप से कार्य कर रही है।

आगे की राह

  • मजबूत AI-आधारित पहचान उपकरण: CSAM का शीघ्र पता लगाने और उसे हटाने के लिए स्वचालित प्रणालियाँ।
  • साइबर सुरक्षा शिक्षा: बच्चों को सुरक्षित ऑनलाइन आचरण का प्रशिक्षण देना।
  • माता-पिता का नियंत्रण और निगरानी: जिम्मेदार डिजिटल पेरेंटिंग को प्रोत्साहित करना।
  • अंतर्राष्ट्रीय सहयोग: सीमाओं के पार अपराधियों को ट्रैक करने और उन पर मुकदमा चलाने के लिए इंटरपोल, यूरोपोल और यूनिसेफ के साथ कार्य करना।

निष्कर्ष

  • डिजिटल बाल शोषण भारत में एक गंभीर मुद्दा है जिसके लिए तत्काल हस्तक्षेप की आवश्यकता है। 
  • यद्यपि सरकार ने ऑनलाइन खतरों का मुकाबला करने के लिए कदम उठाए हैं, तकनीकी प्रगति ने AI-आधारित शोषण के जोखिम को भी बढ़ा दिया है। 
  • डिजिटल दुनिया में बच्चों की सुरक्षा के लिए सख्त नियम, जागरूकता और उन्नत निगरानी का संयोजन आवश्यक है।
दैनिक मुख्य परीक्षा अभ्यास प्रश्न
[प्रश्न] बच्चों से संबंधित शोषणकारी सामग्री बनाने में AI के दुरुपयोग से निपटने के लिए कौन से नैतिक एवं कानूनी उपायों को प्राथमिकता दी जानी चाहिए, और समाज डिजिटल युग में सुभेद्य समूहों की सुरक्षा कैसे सुनिश्चित कर सकता है?

Source: TH