मेन्यू

डीपफेक क्या है?

डीपफेक तकनीक एक प्रकार की कृत्रिम बुद्धिमत्ता है जो गलत सूचना और दुष्प्रचार फैला सकती है। बच्चों और युवाओं को ऑनलाइन सुरक्षित रखने में मदद के लिए सूचित रहें।

एक माँ के हाथ में एक टैबलेट है, जो सुरक्षा चिह्नों से घिरा हुआ है।

एक नज़र में मार्गदर्शन

डीपफेक तकनीक के बारे में त्वरित जानकारी और सलाह प्राप्त करें।

इसका क्या मतलब है?

डीपफेक ऐसे वीडियो या ऑडियो रिकॉर्डिंग हैं जो किसी व्यक्ति की शक्ल में हेरफेर करते हैं। फिर वे कुछ ऐसा करते/कहते प्रतीत होते हैं जो उन्होंने कभी नहीं किया।

डीपफेक के बारे में जानें

उसके खतरे क्या हैं?

डीपफेक में झूठी सूचना या प्रचार फैलाने की क्षमता होती है। वे साइबरबुलिंग और घोटालों में भी भूमिका निभा सकते हैं।

जानें नुकसान के बारे में

बच्चों की सुरक्षा कैसे करें

बच्चों को नियमित बातचीत करके आलोचनात्मक सोच विकसित करने में मदद करना उन्हें नुकसान से सुरक्षित रखने का एक महत्वपूर्ण हिस्सा है।

सुरक्षा युक्तियाँ देखें

डीपफेक क्या है?

डीपफेक के दो मुख्य प्रकार हैं वीडियो और ऑडियो। वीडियो डीपफेक किसी व्यक्ति की शक्ल में हेरफेर करते हैं जबकि ऑडियो डीपफेक उनकी आवाज में हेरफेर करते हैं।

भ्रामक सामग्री बनाने के लिए वीडियो और ऑडियो डीपफेक अक्सर एक साथ काम करते हैं। इस फर्जी सामग्री को बनाने वाले लोगों के इरादे मासूम हो सकते हैं। उदाहरण के लिए, वे लोगों को हंसाने के लिए किसी सेलिब्रिटी का अजीब डांस करते हुए वीडियो बना सकते हैं। हालाँकि, सबसे अच्छे इरादे भी गलत सूचना और भ्रम पैदा कर सकते हैं।

वीडियो डीपफेक क्या हैं?

वीडियो डीपफेक सबसे आम प्रकार हैं। जो लोग ये वीडियो बनाते हैं वे इसका उपयोग करते हैं कृत्रिम बुद्धिमत्ता मौजूदा वीडियो फुटेज में किसी के चेहरे या शरीर को बदलने के लिए। उदाहरणों में किसी सेलिब्रिटी से कुछ विवादास्पद बात कहना या समाचार एंकर से मनगढ़ंत कहानियाँ रिपोर्ट करना शामिल है।

कुछ वीडियो डीपफेक में, एक आवाज अभिनेता नई आवाज प्रदान करने के लिए सेलिब्रिटी या मूल ऑडियो की नकल करेगा। वैकल्पिक रूप से, निर्माता वॉयस क्लोनिंग का भी उपयोग कर सकता है।

वॉयस क्लोनिंग क्या है?

वॉयस क्लोनिंग, या ऑडियो डीपफेक, किसी और की तरह आवाज निकालने के लिए वीडियो के बजाय आवाज में हेरफेर करता है। एक तेजी से आम घोटाला लोगों को लक्षित करने के लिए वॉयस क्लोनिंग का उपयोग करता है। माता-पिता के लिए, उन्हें अपने बच्चे से एक परेशान कॉल प्राप्त हो सकती है जिसे किसी निश्चित उद्देश्य के लिए तुरंत पैसे की आवश्यकता है। ये घोटाले बेहद विश्वसनीय हैं और इनसे वित्तीय नुकसान हुआ है।

कोई व्यक्ति किसी अन्य व्यक्ति को धमकाने के लिए ऑडियो डीपफेक का भी उपयोग कर सकता है। उदाहरण के लिए, वे किसी सहपाठी की आवाज़ की नकल करके यह दिखा सकते हैं कि उन्होंने कुछ ऐसा कहा जो उन्होंने नहीं कहा।

डीपफेक के प्रकार के बावजूद, यह याद रखना महत्वपूर्ण है कि इसे बनाने के लिए किसी को एआई टूल का उपयोग करने की आवश्यकता है। डीपफेक निर्माता हमेशा स्पष्ट नहीं होते हैं, लेकिन एआई इस सामग्री को स्वचालित रूप से उत्पन्न नहीं करता है।

संभावित नुकसान क्या हैं?

डीपफेक लोगों को कई तरह से प्रभावित कर सकता है और बच्चों और युवाओं को ऑनलाइन नुकसान पहुंचा सकता है।

बच्चों और युवाओं को नकली वीडियो और ऑडियो को पहचानने में कठिनाई हो सकती है, खासकर जब तकनीक अधिक परिष्कृत हो गई है। इसके अतिरिक्त, एआई टूल तक पहुंच बढ़ने का मतलब यह हो सकता है कि अधिक लोग डीपफेक बना सकते हैं। इसलिए इससे संभावित नुकसान की पहुंच बढ़ सकती है।

गलत जानकारी और प्रचार 

ऑनलाइन उपयोगकर्ता डीपफेक का उपयोग निम्न के लिए कर सकते हैं:

  • झूठी सूचना फैलाना;
  • सार्वजनिक हस्तियों पर भरोसा ख़त्म करना; या
  • राजनीति और अन्य महत्वपूर्ण मुद्दों पर बातचीत में हेरफेर करें।

बच्चे अभी भी आलोचनात्मक सोच कौशल विकसित कर रहे हैं, इसलिए वे इस प्रकार की जानकारी पर विश्वास करने के प्रति विशेष रूप से असुरक्षित हैं।

प्रतिष्ठा को नुकसान

कुछ रिपोर्टें डीपफेक को रिवेंज पोर्न से जोड़ती हैं। इन मामलों में, अपराधी पीड़ित को अश्लील वीडियो या इमेजरी जैसी समझौता सामग्री में जोड़ता है।

इसके बाद अपराधी पीड़ितों पर दबाव डालने के लिए इन डीपफेक का उपयोग कर सकता है। इसमें डीपफेक को अधिक व्यापक रूप से साझा करने से रोकने के लिए भुगतान या वास्तविक छवियों की मांग करना शामिल हो सकता है। सेक्सटॉर्शन के बारे में हमारी मार्गदर्शिका से इस प्रथा के बारे में और जानें।

साइबरबुलिंग, उत्पीड़न और दुर्व्यवहार

अपराधी दूसरों का मज़ाक उड़ाने, डराने या शर्मिंदा करने के लिए वीडियो बनाकर उन्हें धमकाने के लिए डीपफेक का भी उपयोग कर सकते हैं।

डीपफेक की प्रकृति पीड़ित के लिए बदमाशी को और अधिक गंभीर बना सकती है। यह अपमानजनक व्यवहार तक भी पहुंच सकता है। जानें कि बच्चे पर बच्चे के साथ दुर्व्यवहार कैसा दिख सकता है।

A 2023 इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) रिपोर्ट एआई-जनित बाल यौन शोषण सामग्री (सीएसएएम) बढ़ने की चेतावनी दी। उन्होंने इनमें से एक पर पोस्ट की गई 20,000 से अधिक छवियों की पहचान की अंधेरे वेब एक महीने की अवधि में सीएसएएम फोरम। उन्होंने इनमें से आधे से अधिक को "अपराधी होने की सबसे अधिक संभावना" के रूप में आंका।

हालाँकि इस संख्या में डीपफेक शामिल नहीं है, IWF का कहना है कि "यथार्थवादी पूर्ण-गति वीडियो सामग्री आम हो जाएगी।" उन्होंने यह भी नोट किया कि लघु AI-जनित CSAM वीडियो पहले से मौजूद हैं। "ये केवल अधिक यथार्थवादी और अधिक व्यापक होने जा रहे हैं।"

वित्तीय हानि और घोटाले

कुछ ऑडियो डीपफेक या वॉयस क्लोनिंग घोटाले के कारण पीड़ितों को पैसे का नुकसान होता है। घोटाले वाले निवेशों को बढ़ावा देने के लिए सार्वजनिक हस्तियों की समानता का भी उपयोग किया गया है।

एक उदाहरण यूट्यूबर मिस्टर बीस्ट का है, जो अपने फॉलोअर्स को नए आईफोन ऑफर करते नजर आए। हालाँकि, वास्तव में यह वह नहीं था। यूट्यूब बच्चों और किशोरों के बीच लोकप्रिय है। इसलिए, अपने पसंदीदा रचनाकारों की नकल करने वाले डीपफेक उन्हें इन घोटालों के लिए खुला छोड़ सकते हैं।

डीपफेक स्कैम वीडियो के उदाहरण
वीडियो ट्रांसक्रिप्ट प्रदर्शित करें
खैर, आइए प्रौद्योगिकी के साथ बने रहें क्योंकि कृत्रिम बुद्धिमत्ता साइबर अपराध में तेजी ला रही है। साइबर सुरक्षा विशेषज्ञों के एक अनुमान के मुताबिक इस साल लागत 8 ट्रिलियन डॉलर तक पहुंचने की उम्मीद है, जो जापान की अर्थव्यवस्था से भी अधिक है। दुनिया का सबसे बड़ा YouTuber उन लोगों में से एक है, जिन्होंने एक घोटाले को बढ़ावा देने के लिए AI द्वारा अपनी वीडियो छवि में हेरफेर किया है, और यहां तक ​​कि बीबीसी प्रस्तुतकर्ता भी इससे अछूते नहीं हैं।

इस पर एक नज़र डालें: ब्रिटिश निवासियों को अब काम करने की आवश्यकता नहीं है, यह घोषणा आज हमारे अतिथि एलोन मस्क ने की है। कनेक्शन जारी रहने के दौरान कौन एक नई निवेश परियोजना का अनावरण करेगा। मैं आपको इस परियोजना के बारे में और अधिक बताऊंगा जो ब्रिटिश लोगों के लिए निवेश पर रिटर्न प्राप्त करने के नए अवसर खोलता है। नई परियोजना में तीन अरब डॉलर से अधिक का निवेश किया गया था, और यह इस समय पहले से ही चालू है।

अजीब है ना? मेरे जैसा दिखता है, मेरे जैसा लगता है, आप कह सकते हैं। इस पर ध्यान देना बहुत कठिन है, है न? और इसलिए मैंने स्टेफ़नी हेयर से बात की, वह एक स्वतंत्र प्रौद्योगिकी विशेषज्ञ हैं, मुझे कहना चाहिए।

एक स्वतंत्र प्रौद्योगिकी विशेषज्ञ स्टेफ़नी हेयर से डीपफेक को पहचानने की कठिनाई के बारे में साक्षात्कार लिया गया।

हेयर कहते हैं, ``बहुत से लोगों को इन चीजों को पहचानना बहुत मुश्किल लगता है।'' ``और आप पहले नहीं हैं और मुझे नहीं लगता कि आप आखिरी होंगे, दुर्भाग्य से, क्योंकि ऐसा होने से रोकने के लिए वास्तव में कुछ भी नहीं है। वास्तव में किसी को जवाबदेह ठहराने के लिए कोई विनियमन नहीं है। उदाहरण के लिए, यदि आप मुकदमा करना चाहें तो मुझे यकीन नहीं है कि आपको किससे खुशी मिलेगी। अब, हम फेसबुक पर आए और कहा कि आपको इसे हटाने की जरूरत है, यह नकली है और उसने ऐसा किया है... उन्होंने ऐसा किया है, मेटा ने तब से ऐसा किया है। हालाँकि, उह, बहुत सारे गहरे नकली वीडियो हैं जो दर्शकों को घोटालों की ओर इशारा करते हैं और चिंता की बात यह है कि लोग वास्तव में अपने स्वयं के पैसे से भाग ले रहे हैं क्योंकि उनका मानना ​​​​है कि वे असली हैं और यही चिंता का विषय है, लोग कैसे बताते हैं कि असली क्या है और क्या नहीं है?``

``ईमानदारी से, मुझे यकीन नहीं है कि तकनीकी सीमाओं के आधार पर यह बताने की कोशिश की जा रही है क्योंकि हम आपके वीडियो के साथ भी देख पा रहे थे कि कुछ चीजें थीं जो बिल्कुल सही नहीं थीं। मैंने यह स्पष्ट कर दिया कि यह वैध नहीं था। आप वास्तव में जो करना चाहते हैं वह अपने आप से पूछना है कि क्या यह सच होने के लिए बहुत अच्छा लगता है, शायद यह सच है। अगर यह थोड़ा अजीब लगता है, तो संभवतः यह है। उह, मुफ़्त लंच जैसी कोई चीज़ नहीं है।''

``निश्चित रूप से ऐसा नहीं है और मैंने इसके बारे में बीबीसी द्वारा लिखा गया एक लेख ट्वीट या साझा किया है जो आपको गहरे नकली वीडियो को पहचानने के बारे में शीर्ष युक्तियाँ देता है।``

बच्चों को डीपफेक नुकसान से कैसे बचाएं

बच्चों को ऑनलाइन सुरक्षित रखने का सबसे अच्छा तरीका उन्हें नुकसान का पता लगाने और सहायता प्राप्त करने के उपकरण देना है। यहां बताया गया है कि आप उन्हें डीपफेक नेविगेट करने में कैसे मदद कर सकते हैं।

खुला संचार प्रमुख है

ऑनलाइन सुरक्षा के बारे में जल्दी और बार-बार बातचीत शुरू करें। डीपफेक की अवधारणा पर चर्चा करें। बताएं कि लोग इन्हें बनाने के लिए एआई का उपयोग कैसे करते हैं और इससे होने वाले संभावित खतरे क्या हैं।

बच्चों की मीडिया साक्षरता विकसित करें

अपने बच्चे के आलोचनात्मक सोच कौशल को विकसित करें और उन्हें ऑनलाइन जो कुछ भी देखते और सुनते हैं उस पर सवाल उठाने के लिए प्रोत्साहित करें। उन्हें सुराग ढूंढना सिखाएं कि कोई वीडियो नकली हो सकता है। उदाहरणों में अप्राकृतिक हलचलें या ऑडियो और वीडियो गुणवत्ता में विसंगतियां शामिल हैं।

झूठी जानकारी के बारे में जानें

सीमाएँ और सेटिंग सेट करें

अपने होम ब्रॉडबैंड या मोबाइल नेटवर्क पर, अनुचित सामग्री के संपर्क को सीमित करने के लिए अभिभावकीय नियंत्रण सेट करें। अपने बच्चे द्वारा उपयोग किए जाने वाले ऐप्स के साथ भी ऐसा ही करें। फिर, उपकरणों का उपयोग कहां और कब करना है इसकी सीमाएं निर्धारित करने के लिए मिलकर काम करें।

पारिवारिक समझौता टेम्पलेट प्राप्त करें

डिजिटल नागरिकता के बारे में बात करें

अपने बच्चे को सकारात्मक ऑनलाइन व्यवहार विकसित करने में मदद करें। उन्हें दूसरों की विशेषता वाली नकली सामग्री बनाने या साझा करने से हतोत्साहित करें, भले ही वे ऐसा केवल मजाक के रूप में करें।

शीर्ष इंटरनेट शिष्टाचार देखें

उन्हें दिखाएँ कि स्रोतों को कैसे सत्यापित किया जाए

जानकारी साझा करने से पहले उसे सत्यापित करने के महत्व पर अपने बच्चे से चर्चा करें। उन्हें ऑनलाइन देखी गई किसी भी चीज़ पर विश्वास करने से पहले विश्वसनीय स्रोतों और तथ्य-जाँच करने वाली वेबसाइटों की जाँच करने के लिए प्रोत्साहित करें।

चीजों को निजी रखें

अपने बच्चों से ऑनलाइन गोपनीयता के बारे में बात करें और उनकी ऑनलाइन पहुंच को नियंत्रित करने के महत्व को समझाएं। याद रखें कि कोई भी आपके बच्चे की सार्वजनिक छवियों का उपयोग किसी भी उद्देश्य के लिए कर सकता है। इसलिए, अपने बच्चे की साझा की जाने वाली छवियों को सीमित करें और उन्हें अपनी साझा की जाने वाली तस्वीरों को सीमित करना सिखाएं।

एआई पर नवीनतम लेख और मार्गदर्शिकाएँ

इन संसाधनों के साथ डीपफेक और अन्य प्रकार की एआई सामग्री के लिए अधिक सहायता प्राप्त करें।

क्या यह उपयोगी था?
हमें बताएं कि हम इसे कैसे सुधार सकते हैं