डीपफेक क्या है?
डीपफेक तकनीक एक प्रकार की कृत्रिम बुद्धिमत्ता है जो गलत सूचना और दुष्प्रचार फैला सकती है। बच्चों और युवाओं को ऑनलाइन सुरक्षित रखने में मदद के लिए सूचित रहें।

एक नज़र में मार्गदर्शन
डीपफेक तकनीक के बारे में त्वरित जानकारी और सलाह प्राप्त करें।
इसका क्या मतलब है?
डीपफेक ऐसे वीडियो या ऑडियो रिकॉर्डिंग हैं जो किसी व्यक्ति की शक्ल में हेरफेर करते हैं। फिर वे कुछ ऐसा करते/कहते प्रतीत होते हैं जो उन्होंने कभी नहीं किया।
उसके खतरे क्या हैं?
डीपफेक में झूठी सूचना या प्रचार फैलाने की क्षमता होती है। वे साइबरबुलिंग और घोटालों में भी भूमिका निभा सकते हैं।
बच्चों की सुरक्षा कैसे करें
बच्चों को नियमित बातचीत करके आलोचनात्मक सोच विकसित करने में मदद करना उन्हें नुकसान से सुरक्षित रखने का एक महत्वपूर्ण हिस्सा है।
डीपफेक क्या है?
डीपफेक के दो मुख्य प्रकार हैं वीडियो और ऑडियो। वीडियो डीपफेक किसी व्यक्ति की शक्ल में हेरफेर करते हैं जबकि ऑडियो डीपफेक उनकी आवाज में हेरफेर करते हैं।
भ्रामक सामग्री बनाने के लिए वीडियो और ऑडियो डीपफेक अक्सर एक साथ काम करते हैं। इस फर्जी सामग्री को बनाने वाले लोगों के इरादे मासूम हो सकते हैं। उदाहरण के लिए, वे लोगों को हंसाने के लिए किसी सेलिब्रिटी का अजीब डांस करते हुए वीडियो बना सकते हैं। हालाँकि, सबसे अच्छे इरादे भी गलत सूचना और भ्रम पैदा कर सकते हैं।
वीडियो डीपफेक क्या हैं?
वीडियो डीपफेक सबसे आम प्रकार हैं। जो लोग ये वीडियो बनाते हैं वे इसका उपयोग करते हैं कृत्रिम बुद्धिमत्ता मौजूदा वीडियो फुटेज में किसी के चेहरे या शरीर को बदलने के लिए। उदाहरणों में किसी सेलिब्रिटी से कुछ विवादास्पद बात कहना या समाचार एंकर से मनगढ़ंत कहानियाँ रिपोर्ट करना शामिल है।
कुछ वीडियो डीपफेक में, एक आवाज अभिनेता नई आवाज प्रदान करने के लिए सेलिब्रिटी या मूल ऑडियो की नकल करेगा। वैकल्पिक रूप से, निर्माता वॉयस क्लोनिंग का भी उपयोग कर सकता है।
वॉयस क्लोनिंग क्या है?
वॉयस क्लोनिंग, या ऑडियो डीपफेक, किसी और की तरह आवाज निकालने के लिए वीडियो के बजाय आवाज में हेरफेर करता है। एक तेजी से आम घोटाला लोगों को लक्षित करने के लिए वॉयस क्लोनिंग का उपयोग करता है। माता-पिता के लिए, उन्हें अपने बच्चे से एक परेशान कॉल प्राप्त हो सकती है जिसे किसी निश्चित उद्देश्य के लिए तुरंत पैसे की आवश्यकता है। ये घोटाले बेहद विश्वसनीय हैं और इनसे वित्तीय नुकसान हुआ है।
कोई व्यक्ति किसी अन्य व्यक्ति को धमकाने के लिए ऑडियो डीपफेक का भी उपयोग कर सकता है। उदाहरण के लिए, वे किसी सहपाठी की आवाज़ की नकल करके यह दिखा सकते हैं कि उन्होंने कुछ ऐसा कहा जो उन्होंने नहीं कहा।
डीपफेक के प्रकार के बावजूद, यह याद रखना महत्वपूर्ण है कि इसे बनाने के लिए किसी को एआई टूल का उपयोग करने की आवश्यकता है। डीपफेक निर्माता हमेशा स्पष्ट नहीं होते हैं, लेकिन एआई इस सामग्री को स्वचालित रूप से उत्पन्न नहीं करता है।
संभावित नुकसान क्या हैं?
डीपफेक लोगों को कई तरह से प्रभावित कर सकता है और बच्चों और युवाओं को ऑनलाइन नुकसान पहुंचा सकता है।
बच्चों और युवाओं को नकली वीडियो और ऑडियो को पहचानने में कठिनाई हो सकती है, खासकर जब तकनीक अधिक परिष्कृत हो गई है। इसके अतिरिक्त, एआई टूल तक पहुंच बढ़ने का मतलब यह हो सकता है कि अधिक लोग डीपफेक बना सकते हैं। इसलिए इससे संभावित नुकसान की पहुंच बढ़ सकती है।
गलत जानकारी और प्रचार
ऑनलाइन उपयोगकर्ता डीपफेक का उपयोग निम्न के लिए कर सकते हैं:
- झूठी सूचना फैलाना;
- सार्वजनिक हस्तियों पर भरोसा ख़त्म करना; या
- राजनीति और अन्य महत्वपूर्ण मुद्दों पर बातचीत में हेरफेर करें।
बच्चे अभी भी आलोचनात्मक सोच कौशल विकसित कर रहे हैं, इसलिए वे इस प्रकार की जानकारी पर विश्वास करने के प्रति विशेष रूप से असुरक्षित हैं।
प्रतिष्ठा को नुकसान
कुछ रिपोर्टें डीपफेक को रिवेंज पोर्न से जोड़ती हैं। इन मामलों में, अपराधी पीड़ित को अश्लील वीडियो या इमेजरी जैसी समझौता सामग्री में जोड़ता है।
इसके बाद अपराधी पीड़ितों पर दबाव डालने के लिए इन डीपफेक का उपयोग कर सकता है। इसमें डीपफेक को अधिक व्यापक रूप से साझा करने से रोकने के लिए भुगतान या वास्तविक छवियों की मांग करना शामिल हो सकता है।
साइबरबुलिंग, उत्पीड़न और दुर्व्यवहार
अपराधी दूसरों का मज़ाक उड़ाने, डराने या शर्मिंदा करने के लिए वीडियो बनाकर उन्हें धमकाने के लिए डीपफेक का भी उपयोग कर सकते हैं।
डीपफेक की प्रकृति पीड़ित के लिए बदमाशी को और अधिक गंभीर बना सकती है। यह अपमानजनक व्यवहार तक भी पहुंच सकता है।
A 2023 इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) रिपोर्ट एआई-जनित बाल यौन शोषण सामग्री (सीएसएएम) बढ़ने की चेतावनी दी। उन्होंने इनमें से एक पर पोस्ट की गई 20,000 से अधिक छवियों की पहचान की अंधेरे वेब एक महीने की अवधि में सीएसएएम फोरम। उन्होंने इनमें से आधे से अधिक को "अपराधी होने की सबसे अधिक संभावना" के रूप में आंका।
हालाँकि इस संख्या में डीपफेक शामिल नहीं है, IWF का कहना है कि "यथार्थवादी पूर्ण-गति वीडियो सामग्री आम हो जाएगी।" उन्होंने यह भी नोट किया कि लघु AI-जनित CSAM वीडियो पहले से मौजूद हैं। "ये केवल अधिक यथार्थवादी और अधिक व्यापक होने जा रहे हैं।"
वित्तीय हानि और घोटाले
कुछ ऑडियो डीपफेक या वॉयस क्लोनिंग घोटाले के कारण पीड़ितों को पैसे का नुकसान होता है। घोटाले वाले निवेशों को बढ़ावा देने के लिए सार्वजनिक हस्तियों की समानता का भी उपयोग किया गया है।
एक उदाहरण यूट्यूबर मिस्टर बीस्ट का है, जो अपने फॉलोअर्स को नए आईफोन ऑफर करते नजर आए। हालाँकि, वास्तव में यह वह नहीं था। यूट्यूब बच्चों और किशोरों के बीच लोकप्रिय है। इसलिए, अपने पसंदीदा रचनाकारों की नकल करने वाले डीपफेक उन्हें इन घोटालों के लिए खुला छोड़ सकते हैं।
खैर, चलिए तकनीक पर ही ध्यान देते हैं क्योंकि कृत्रिम बुद्धिमत्ता साइबर अपराध में उछाल ला रही है। साइबर सुरक्षा विशेषज्ञों के एक अनुमान के अनुसार इस वर्ष इसकी लागत 8 ट्रिलियन डॉलर तक पहुँचने की उम्मीद है, जो जापान की अर्थव्यवस्था से भी अधिक है। दुनिया के सबसे बड़े YouTuber उन लोगों में से हैं, जिनकी वीडियो छवि को AI द्वारा घोटाले को बढ़ावा देने के लिए हेरफेर किया गया है, और यहाँ तक कि BBC के प्रस्तुतकर्ता भी इससे अछूते नहीं हैं। इस पर एक नज़र डालें: ब्रिटिश निवासियों को अब काम करने की ज़रूरत नहीं है, यह हमारे आज के अतिथि एलन मस्क द्वारा की गई घोषणा है। कनेक्शन चालू रहने के दौरान कौन एक नई निवेश परियोजना का अनावरण करेगा। मैं आपको इस परियोजना के बारे में और बताऊंगा जो ब्रिटिश लोगों के लिए निवेश पर रिटर्न प्राप्त करने के नए अवसर खोलती है। नई परियोजना में तीन बिलियन डॉलर से अधिक का निवेश किया गया था, और यह इस समय पहले से ही चल रही है।
अजीब है, है न? आप कह सकते हैं कि यह मेरे जैसा दिखता है, मेरे जैसा लगता है। यह समझना थोड़ा मुश्किल है, है न? और इसलिए मैंने स्टेफ़नी हेयर से बात की, वह एक स्वतंत्र प्रौद्योगिकी विशेषज्ञ हैं, मुझे कहना चाहिए।
एक स्वतंत्र प्रौद्योगिकी विशेषज्ञ स्टेफ़नी हेयर से डीपफेक को पहचानने की कठिनाई के बारे में साक्षात्कार लिया गया।
हेयर कहते हैं, "बहुत से लोगों को इन चीज़ों को पहचानना बहुत मुश्किल लगता है।" "और आप पहले नहीं हैं और मुझे नहीं लगता कि आप आखिरी होंगे, दुर्भाग्य से, क्योंकि ऐसा होने से रोकने के लिए वास्तव में कुछ भी नहीं है। वास्तव में किसी को भी जवाबदेह ठहराने के लिए कोई विनियमन नहीं है। मुझे यकीन नहीं है कि अगर आप उदाहरण के लिए मुकदमा करना चाहते हैं तो आपको किससे कोई खुशी मिलेगी। अब, हम फेसबुक पर गए और कहा कि आपको इसे हटाने की ज़रूरत है, यह नकली है और इसने ऐसा किया है... उन्होंने ऐसा किया है, मेटा ने तब से ऐसा किया है। हालाँकि, उह, वहाँ बहुत सारे डीप फ़ेक वीडियो हैं जो दर्शकों को घोटाले की ओर इशारा करते हैं और चिंता यह है कि लोग वास्तव में अपने पैसे से भाग रहे हैं क्योंकि उन्हें लगता है कि वे असली हैं और यही चिंता है, लोग कैसे बता सकते हैं कि क्या असली है और क्या नहीं?"
"ईमानदारी से कहूँ तो मुझे यकीन नहीं है कि तकनीकी सीमाओं के आधार पर यह बताना संभव है क्योंकि हम आपके वीडियो से भी देख पाए कि कुछ चीजें ऐसी थीं जो बिल्कुल सही नहीं थीं। मैंने यह बहुत स्पष्ट कर दिया था कि यह वैध नहीं था। आप वास्तव में जो करना चाहते हैं वह यह है कि खुद से पूछें कि क्या यह सच होने के लिए बहुत अच्छा लगता है, शायद यह सच है। अगर यह थोड़ा अजीब लगता है, तो शायद यह सच है। उह, मुफ़्त भोजन जैसी कोई चीज़ नहीं होती है।"
"निश्चित रूप से ऐसा नहीं है और मैंने इस बारे में ट्वीट किया है या बीबीसी द्वारा लिखा गया एक लेख साझा किया है जो आपको डीप फेक वीडियो को पहचानने के बारे में शीर्ष सुझाव देता है।"
बच्चों को डीपफेक नुकसान से कैसे बचाएं
बच्चों को ऑनलाइन सुरक्षित रखने का सबसे अच्छा तरीका उन्हें नुकसान को पहचानने और सहायता प्राप्त करने के लिए उपकरण देना है। यहाँ बताया गया है कि आप उन्हें डीपफेक से बचने में कैसे मदद कर सकते हैं।
खुला संचार प्रमुख है
ऑनलाइन सुरक्षा के बारे में जल्दी और बार-बार बातचीत शुरू करें। डीपफेक की अवधारणा पर चर्चा करें। बताएं कि लोग इन्हें बनाने के लिए एआई का उपयोग कैसे करते हैं और इससे होने वाले संभावित खतरे क्या हैं।
बच्चों की मीडिया साक्षरता विकसित करें
अपने बच्चे के आलोचनात्मक सोच कौशल को विकसित करें और उन्हें ऑनलाइन जो कुछ भी देखते और सुनते हैं उस पर सवाल उठाने के लिए प्रोत्साहित करें। उन्हें सुराग ढूंढना सिखाएं कि कोई वीडियो नकली हो सकता है। उदाहरणों में अप्राकृतिक हलचलें या ऑडियो और वीडियो गुणवत्ता में विसंगतियां शामिल हैं।
सीमाएँ और सेटिंग सेट करें
अपने होम ब्रॉडबैंड या मोबाइल नेटवर्क पर, अनुचित सामग्री के संपर्क को सीमित करने के लिए अभिभावकीय नियंत्रण सेट करें। अपने बच्चे द्वारा उपयोग किए जाने वाले ऐप्स के साथ भी ऐसा ही करें। फिर, उपकरणों का उपयोग कहां और कब करना है इसकी सीमाएं निर्धारित करने के लिए मिलकर काम करें।
डिजिटल नागरिकता के बारे में बात करें
अपने बच्चे को सकारात्मक ऑनलाइन व्यवहार विकसित करने में मदद करें। उन्हें दूसरों की विशेषता वाली नकली सामग्री बनाने या साझा करने से हतोत्साहित करें, भले ही वे ऐसा केवल मजाक के रूप में करें।
उन्हें दिखाएँ कि स्रोतों को कैसे सत्यापित किया जाए
जानकारी साझा करने से पहले उसे सत्यापित करने के महत्व पर अपने बच्चे से चर्चा करें। उन्हें ऑनलाइन देखी गई किसी भी चीज़ पर विश्वास करने से पहले विश्वसनीय स्रोतों और तथ्य-जाँच करने वाली वेबसाइटों की जाँच करने के लिए प्रोत्साहित करें।
चीजों को निजी रखें
अपने बच्चों से ऑनलाइन गोपनीयता के बारे में बात करें और उनकी ऑनलाइन पहुंच को नियंत्रित करने के महत्व को समझाएं। याद रखें कि कोई भी आपके बच्चे की सार्वजनिक छवियों का उपयोग किसी भी उद्देश्य के लिए कर सकता है। इसलिए, अपने बच्चे की साझा की जाने वाली छवियों को सीमित करें और उन्हें अपनी साझा की जाने वाली तस्वीरों को सीमित करना सिखाएं।
माता-पिता के लिए डीपफेक गाइड
AI के बारे में नवीनतम लेख
इन संसाधनों के साथ डीपफेक और अन्य प्रकार की एआई सामग्री के लिए अधिक सहायता प्राप्त करें।