डीपफेक क्या है? रिवेंज पोर्न में फेस-स्वैपिंग का उपयोग कैसे किया जाता है

  • Sep 05, 2021
instagram viewer

आपने अभी तक "डीपफेक" शब्द नहीं सुना होगा, लेकिन तकनीक के भयावह निहितार्थ हैं।

एक ऐसे दिन और उम्र में जहां आप “के बारे में मिले या सुने बिना 10 मिनट ऑनलाइन नहीं बिता सकते हैं”फेक न्यूज,” ऐसा लग सकता है कि दुष्प्रचार और दुर्भावनापूर्ण प्रचार के इर्द-गिर्द बातचीत अब और भ्रमित करने वाली नहीं हो सकती है। ओह, लेकिन यह कर सकते हैं.

की दुनिया में आपका स्वागत है डीपफेक तकनीक, जहां एक साधारण एल्गोरिथम अविश्वसनीय रूप से वास्तविक दिखने वाली नकली सामग्री बना सकता है। वास्तव में, वास्तविक बदला लेने वाला अश्लील, राजनीतिक प्रचार, और बनाने के लिए नकली चित्र और वीडियो बनाए जा रहे हैं अन्य झूठी जानकारी फैलाते हैं, और यहां तक ​​कि विशेषज्ञों को भी वास्तविक से डीपफेक को बताने में कठिनाई हो सकती है चीज़।

फिर भी, यह जानने लायक है कि वे क्या हैं, तो आइए डीपफेक तकनीक और पोर्न, राजनीति और अन्य पर इसके प्रभावों के बारे में जानें और जानें।

डीपफेक वीडियो 101

"डीपफेक" शब्द "डीप लर्निंग" और "फेक" शब्दों का एक संयोजन है। के अनुसार फोर्ब्स, डीप लर्निंग "मशीन लर्निंग का एक सबसेट है जहां कृत्रिम तंत्रिका नेटवर्क, एल्गोरिदम से प्रेरित है मानव मस्तिष्क, बड़ी मात्रा में डेटा से सीखें।" इस तकनीक से, हमें डीपफेक इमेज और वीडियो मिलते हैं, जो हैं

मनगढ़ंत और अप्रमाणिक लेकिन देखो और ध्वनि बहुत वास्तविक है।

डीपफेक एल्गोरिदम ने 2017 के अंत में ऑनलाइन प्रसार करना शुरू कर दिया, और इस बिंदु पर छवियां वास्तव में सोशल मीडिया पर बहुत आम हैं। डीपफेक छवि-आधारित मीम्स के निर्माताओं के लिए लोकप्रिय है, विशेष रूप से वे जिनमें मशहूर हस्तियों का किसी अन्य व्यक्ति के साथ आमना-सामना किया जाता है, अक्सर एक सेलिब्रिटी (अभिनेता भी) निकोलस केज इन हिजिंकों का एक लोकप्रिय लक्ष्य है)।

लेकिन वास्तव में अच्छे डीपफेक वीडियो व्यापक रूप से उपयोग में नहीं हैं, इसलिए अधिकांश लोगों ने अभी तक एक को नहीं देखा होगा। हालांकि, इस साल की शुरुआत में डीपफेक वीडियो तकनीक पर कई लोगों की नजर पड़ी जब बज़फीड ने एक वीडियो पीएसए बनाया अभिनेता और निर्देशक जॉर्डन पील की विशेषता। पीएसए में, जो उन्नत एआई तकनीक (और विशेष रूप से डीपफेक), छवियों और ऑडियो के नुकसान के बारे में था पील का उपयोग पूर्व राष्ट्रपति बराक ओबामा को प्रदर्शित करने के लिए एक अत्यधिक ठोस डीपफेक वीडियो बनाने के लिए किया गया था।

वीडियो बनाना

मार्टिन लिंडस्ट्रॉम, के लेखक छोटा डेटा: बड़े रुझानों को उजागर करने वाले छोटे सुराग, बताता है फुसलाना ईमेल पर, "डीपफेक कई स्थिर तस्वीरों या वीडियो रिकॉर्डिंग का असाधारण रूप से विस्तृत विश्लेषण है जिसमें आप जिस व्यक्ति की विशेषता रखते हैं नकल करना पसंद है। ” डीपफेक बनाने में जितनी अधिक छवियां शामिल हैं, वे बताते हैं, उत्पाद के होने पर यह उतना ही वास्तविक होगा पूर्ण।

डीपफेक एल्गोरिदम छवियों का विश्लेषण करता है जिसे लिंडस्ट्रॉम "नकल बारीकियों" कहते हैं - यानी, एक व्यक्ति द्वारा किए जाने वाले सभी आंदोलनों और अभिव्यक्तियों। अन्य विशिष्ट चेहरे और शरीर की गतिविधियों के अलावा किसी व्यक्ति के सूक्ष्म अभिव्यक्तियों का सटीक पुन: निर्माण डीपफेक बनाता है इतना यथार्थवादी दिखो.

गेटी इमेजेज

एक बार सभी छवियों का विश्लेषण किया जाता है, लिंडस्ट्रॉम कहते हैं, "सिस्टम मैप करेगा और इन्हें उपयोग में आसान टूल में बदल देगा।" यह उपकरण अनुमति देता है उपयोगकर्ताओं को बस एक संदेश टाइप करने के लिए वे चाहते हैं कि वीडियो में दिखाए गए व्यक्ति को कहें लिंडस्ट्रॉम। एआई के साथ युग्मित कि मानव आवाज "क्लोन" कर सकते हैं या किसी और की आवाज की नकल करते हैं, तो डीपफेक वीडियो तकनीक के परिणाम उल्लेखनीय रूप से यथार्थवादी दिखाई दे सकते हैं। आवाज की नकल AI अन्य शब्दों और वाक्यांशों को बनाने के लिए किसी व्यक्ति की आवाज की रिकॉर्डिंग का उपयोग कर सकता है जो ऐसा लगता है जैसे वे बात कर रहे हैं।

परदे के पीछे कौन है

लिंडस्ट्रॉम का कहना है कि डीपफेक तकनीक से खेलने वाले प्रमुख आंकड़े "सभी सामान्य संदिग्ध" हैं। Google सहित, फेसबुक और अमेज़न। इन कंपनियों में से प्रत्येक को बहुत कुछ हासिल करना है अगर वह डीपफेक तकनीक का मुद्रीकरण कर सकती है। उदाहरण के लिए, लिंडस्ट्रॉम का कहना है कि Google "खोज और प्रतिक्रिया के भविष्य को समझने के लिए" डीपफेक का उपयोग कर रहा है; फेसबुक इस बात पर गौर कर रहा है कि कैसे डीपफेक तकनीक कंपनी को नकली सामग्री को अधिक सामान्य रूप से समझने में मदद कर सकती है; और अमेज़ॅन डीपफेक तकनीक का उपयोग करके 'व्यक्तिगत एलेक्सा अनुभवों' को तैयार कर सकता है।" डीपफेक वीडियो मृतक की विशेषता वाले YouTube वीडियो के रूप में स्वयं Google के लिए लाभ कमाने वाला हो सकता है हस्तियां।

"उन सभी ब्रांडों ने आज दावा किया है कि वे केवल नए और अधिक आकर्षक तरीके खोजने में सहायता के लिए तकनीक का उपयोग और / या खोज कर रहे हैं अपने परिणामों की सेवा करने के लिए, "लिंडस्ट्रॉम कहते हैं, लेकिन चेतावनी देते हैं कि तकनीकी दिग्गजों ने डीपफेक में रुचि ली है, इसका कारण हो सकता है चिंता। लिंडस्ट्रॉम बताते हैं कि तकनीकी कंपनियों के लिए उपयोगी या मजेदार तकनीकी प्रगति को बढ़ावा देना आसान है, लेकिन एआई तकनीक के लिए "संदिग्ध" बनना भी आसान है।

नई तकनीक का अनैतिक उपयोग पिछले कुछ वर्षों में प्रमुख तकनीकी कंपनी (यदि हर नहीं) में एक समस्या रही है। Google के नेतृत्व पर हाल ही में कंपनी के विरोध में कर्मचारियों द्वारा नौकरी छोड़ने के बाद बनाई गई AI तकनीक के सिद्धांतों को संशोधित करने का दबाव डाला गया था। प्रोजेक्ट मावेन के लिए सैन्य अनुबंध, जिसमें घातक मिसाइलों के लक्ष्यों की पहचान करने के लिए Google तकनीक का उपयोग शामिल था। जून में, कंपनी ने अपने अद्यतन सिद्धांतों की घोषणा की और घोषणा की कि वह प्रोजेक्ट मावेन अनुबंध को नवीनीकृत नहीं करेगी।

पोर्न बनाने के लिए डीपफेक का इस्तेमाल करना

तकनीक की दुनिया में बड़े खिलाड़ियों से परे, पोर्न उद्योग ने भी डीपफेक तकनीक को अपना लिया है। लिंडस्ट्रॉम का कहना है कि पोर्न उद्योग का लक्ष्य "व्यक्तिगत फिल्में" जारी करना है, जिसमें एक व्यक्ति एक वीडियो देख सकता है, जिसमें उनकी पसंद का व्यक्ति दिखाई देगा। वीडियो में मशहूर हस्तियों से लेकर दर्शकों तक, किसी भी अन्य व्यक्ति की उपस्थिति शामिल हो सकती है।

दुर्भाग्य से, अश्लील उद्देश्यों के लिए डीपफेक का उपयोग भी खतरे का कारण बनता है नकली बदला अश्लील. यह तकनीक किसी के भी चेहरे या शरीर को किसी भी कल्पनाशील परिदृश्य में रखना आसान बनाती है और इसे बहुत वास्तविक बनाती है, जिसका अर्थ है अपमानजनक पूर्व और अन्य लोगों के पास झूठी छवियां बनाने और फैलाने के लगभग अनंत अवसर हैं जो उनकी प्रतिष्ठा को नुकसान पहुंचा सकते हैं शिकार।

वास्तव में, ए के अनुसार मदरबोर्ड से टुकड़ा पिछले साल से, "डीपफेक" नाम के एक रेडिटर ने कई डीपफेक अश्लील वीडियो बनाए प्रसिद्ध अभिनेत्रियों के चेहरे (गैल गैडोट, मैसी विलियम्स, टेलर स्विफ्ट, और अन्य सहित) पहले रेडिट प्रतिबंधित इसे पिछले फरवरी में "अनैच्छिक अश्लीलता" कहा जा रहा है।

गैर-बाइनरी कलाकार कोर्टनी ट्रबल कहता है फुसलाना क्योंकि डीपफेक तकनीक किसी व्यक्ति के चेहरे की सभी ज्ञात डिजिटल छवियों को एक जाल में संकलित करती है, इनमें से कई छवियां और वीडियो में उस समय के कंपोजिट शामिल हो सकते हैं, जब कोई व्यक्ति कम उम्र का था — और इसलिए उसे चाइल्ड पोर्न के रूप में फ़्लैग किया जाना चाहिए, भले ही वह उल्लू बनाना।

परेशानी जारी है, कह रही है, "डीपफेक का इस्तेमाल लोगों को ब्लैकमेल करने के लिए भी किया जा सकता है।" इसके अतिरिक्त, पोर्न में एआई के संभावित उपयोग के साथ, ट्रबल टिप्पणी करता है, "यह बहुत ही अनैतिक है। यह वास्तविक कलाकारों से नौकरियां छीन सकता है; यह स्वचालन के मुद्दों को सामने लाता है।"

यह सच है - डीपफेक उनके लिए खतरा है वास्तविक कलाकारों की आजीविका, और कुछ पोर्न कंपनियां ग्राहकों को आकर्षित करने के लिए इसी तरह की तकनीक का उपयोग करके इससे आगे निकलने का प्रयास कर रही हैं। जैसा द वर्ज द्वारा रिपोर्ट किया गयानॉटी अमेरिका में अब एक ऐसी सेवा है जो ग्राहकों को एआई का उपयोग करके अपनी क्लिप को अनुकूलित करने की अनुमति देती है। हालांकि इस तरह के डीपफेक "कलाकारों" की सहमति से किए जाते हैं, फिर भी इसमें वास्तविक कलाकारों से नौकरियां छीनने की क्षमता होती है।

राजनीतिक प्रचार

बज़फीड पीएसए में, जॉर्डन पील दर्शकों को सलाह देता है कि वे इस बारे में सतर्क रहें कि वे ऑनलाइन क्या देखते हैं, प्रौद्योगिकी के अस्तित्व को देखते हुए ऐसा लगता है कि कोई भी कुछ भी कह रहा है। राजनेताओं के मुंह में शब्द डालने वाले डीपफेक वीडियो के गंभीर परिणामों की कल्पना आसानी से की जा सकती है, जैसे राष्ट्रपति ट्रम्प. एक राजनीतिक माहौल में जिसमें फेसबुक, ट्विटर, गूगल और यूट्यूब सहित टेक कंपनियों को के मुद्रीकरण से लाभ होता है दुष्प्रचार और अन्य प्रचार, राजनीति से प्रेरित डीपफेक वीडियो में महत्वपूर्ण हानिकारक होने की क्षमता है प्रभाव।

लिंडस्ट्रॉम कहते हैं, "सबसे खराब स्थिति यह है कि विश्वसनीय अधिकारियों से नकली वीडियो संदेश भेजकर डर पैदा किया जाता है, जो कुछ खतरनाक मुद्दों के बारे में जनता को चेतावनी देता है।" झूठी आपात स्थिति में बहुत अधिक दहशत पैदा करने की क्षमता होती है। लिंडस्ट्रॉम याद दिलाता है कि जब एक आपातकालीन सैन्य संदेश आने वाली मिसाइल की चेतावनी के साथ जनवरी में एक सेल फोन के साथ हवाई में सभी को भेजा गया था। चेतावनी झूठी निकली, लेकिन इससे जो डर और भ्रम पैदा हुआ, वह वास्तविक था।

राजनीतिक उम्मीदवारों द्वारा अपने विरोधियों के खिलाफ कार्यालय के लिए डीपफेक तकनीक को आसानी से हथियार बनाया जा सकता है। उदाहरण के लिए, बुरे अभिनेता अपने राजनीतिक विरोधियों के डीपफेक वीडियो बना सकते हैं, जिससे यह प्रतीत होता है कि उन्होंने ऐसा संदिग्ध काम किया या कहा जो उन्होंने कभी किया या कहा नहीं है। अकेले बज़फीड का पीएसए इस बात का सबूत है कि एक राजनेता जो कुछ भी कहना चाहता है, वह किसी भी कारण से कह रहा है, यह दिखाना कितना आसान है।

डीपफेक अभी भी काफी नया है, लेकिन अगर यह गलत हाथों में है तो इसमें बहुत नुकसान होने की संभावना है। टेक दिग्गजों ने हाल के वर्षों में अच्छी तरह से प्रदर्शित किया है कि वे खतरनाक दुष्प्रचार को खत्म करने के लिए तैयार नहीं हैं और शुरुआत में "फर्जी समाचार", जिसका अर्थ है कि कोई भी सही करने के लिए Google और Facebook की पसंद पर सुरक्षित रूप से भरोसा नहीं कर सकता है चीज़। जैसा कि ट्रबल कहते हैं, "मुझे कला या शिक्षा के लिए तकनीक का इस्तेमाल करने के तरीकों में दिलचस्पी है, लेकिन मुझे नहीं लगता कि इसे बनाने वाले लोग इस बारे में ज्यादा परवाह करते हैं वह।" अंततः, उपभोक्ताओं को डीपफेक के परिणामों के साथ संघर्ष करने के लिए छोड़ दिया जाएगा यदि (या कब) नकली राजनीतिक वीडियो निक केज से अधिक हो जाते हैं मीम।


प्रौद्योगिकी के बारे में और पढ़ें फुसलाना:

  • पागल जोकर गोपनीयता: जुगलो मेकअप स्पष्ट रूप से चेहरे की पहचान प्रौद्योगिकी को विफल करता है
  • कैसे स्मार्ट मिरर ट्रेंड सौंदर्य उद्योग को बदल रहा है
  • सीवीएस 2020 तक स्टोर में फोटोशॉप्ड ब्यूटी इमेजरी को चरणबद्ध करना चाहता है

अब देखिए प्लास्टिक सर्जरी के 100 साल:

एल्योर को फॉलो करना न भूलें instagram तथा ट्विटर.

insta stories