Author : Ashish Jaiman

Published on Sep 15, 2020 Updated 0 Hours ago

डीपफेक का नैतिक असर बहुत ज़्यादा है. साझेदारी करके और सिविल सोसायटी की देखरेख में नैतिक AI सिद्धांत और नियम ज़रूर विकसित किया जाना चाहिए

AI की दुनिया में हथियार के तौर पर डीपफेक का बढ़ता इस्तेमाल, चिंता की बड़ी वजह

कल्पना कीजिए कि किसी चुनाव के कुछ दिन पहले किसी उम्मीदवार का वीडियो जारी किया जाता है जिसमें वो नफ़रती भाषण, नस्लीय टिप्पणी और ऐसी गालियां देता है जो अल्पसंख्यक समर्थक उसकी छवि को नुक़सान पहुंचाए. कल्पना कीजिए कि कोई किशोर सोशल मीडिया पर अपना अश्लील वीडियो देखे. कल्पना कीजिए की कोई CEO शेयर बाज़ार के ज़रिए अपनी कंपनी के लिए पैसा जुटाने की कोशिश कर रहा हो और उसी दौरान उसकी कोई ऑडियो क्लिप निवेशकों को भेजी जाए जिसमें वो अपनी कंपनी के उत्पाद के बारे में अपने डर और बेचैनी को ज़ाहिर कर रहा है. ये हालात आर्टिफिशियल इंटेलिजेंस के ज़रिए फ़र्ज़ी वीडियो, ऑडियो और तस्वीरों के ग़लत इस्तेमाल के हैं जिसे डीप-फेक के रूप में जाना जाता है.[1] आर्टिफिशियल इंटेलिजेंस (AI) में हाल के दिनों में तरक़्क़ी की वजह से ऑडियो, वीडियो और तस्वीरों को ग़लत ढंग से पेश करने की तकनीक में तेज़ विकास हुआ है. क्लाउड कंप्यूटिंग तक पहुंच, AI के ज़रिए कैलकुलेशन और भरपूर मात्रा में डाटा होने की वजह से सोशल प्लेटफॉर्म के ज़रिए डीप-फेक का व्यापक विस्तार हुआ है.

हालांकि, डीप-फेक का इस्तेमाल कला, अभिव्यक्ति और कारोबार में सकारात्मक रूप से भी किया जा सकता है लेकिन मुख्य़ रूप से इसका इस्तेमाल ग़लत हरकतों के लिए ही किया जा रहा है. डीप-फेक से किसी व्यक्ति, कारोबार, समाज और लोकतंत्र को नुक़सान हो सकता है और मीडिया में पहले से कम हो रहे भरोसे में और तेज़ी से कमी आ सकती है. भरोसे में इस कमी की वजह से लोकतंत्र और सिविल सोसायटी में कमज़ोरी आ सकती है. इसके अलावा डीपफेक कम लोकतांत्रिक और निरंकुश नेताओं को फलने-फूलने में मदद कर सकता है क्योंकि ऐसे लोग पसंद न आने वाली सच्चाई को ‘फेक न्यूज़’ कह कर खारिज कर सकते हैं.[2]

इसके अलावा डीपफेक कम लोकतांत्रिक और निरंकुश नेताओं को फलने-फूलने में मदद कर सकता है क्योंकि ऐसे लोग पसंद न आने वाली सच्चाई को ‘फेक न्यूज़’ कह कर खारिज कर सकते हैं.

डीप-फेक का इस्तेमाल कर ग़लत सोच कायम करना ख़तरनाक है और इससे इरादतन या ग़ैर-इरादतन तौर पर आम लोगों और समाज को नुक़सान हो सकता है. डीप-फेक की वजह से दुनिया में सच्चाई का संकट और गहरा सकता है क्योंकि वो सिर्फ़ फ़र्ज़ी ही नहीं होते हैं बल्कि सच्चाई के इतने क़रीब होते हैं कि हमारी सामान्य समझ को भी धोखा देते हैं. किसी के बयान को किसी और का बताना, किसी के चेहरे को किसी और के चेहरे से बदलना, फ़र्ज़ी तस्वीर बनाना और किसी सार्वजनिक व्यक्तित्व की डिजिटल कठपुतली बनाकर छल-कपट को सुव्यवस्थित बनाना नैतिक रूप से सवाल उठाने वाले क़दम हैं और ऐसे लोगों को किसी व्यक्ति या संस्था को होने वाले संभावित नुक़सान के लिए जवाबदेह ठहराना चाहिए.

डीपफेक का इस्तेमाल चरमपंथी समूह या आतंकी संगठन भी अपने विरोधियों को ग़लत रूप से पेश करने के लिए कर सकते हैं जैसे वो उन्हें भड़काऊ भाषण या उकसाने वाली गतिविधियों में शामिल होते हुए दिखा सकते हैं जिससे कि लोगों में सरकार के ख़िलाफ़ ग़ुस्सा पैदा हो. उदाहरण के तौर पर एक आतंकी संगठन आसानी से एक डीपफेक वीडियो बना सकता है जिसमें पश्चिमी देशों के सैनिक किसी धार्मिक जगह का अनादर कर रहे हैं ताकि लोगों में पश्चिमी देशों के ख़िलाफ़ मौजूदा ग़ुस्सा और भड़के. सरकारें भी इस तरह की चालबाज़ी के ज़रिए किसी अल्पसंख्यक समुदाय या किसी दूसरे देश के ख़िलाफ़ दुष्प्रचार को बढ़ावा दे सकती हैं. उदाहरण के तौर पर किसी पुलिस अधिकारी का ऐसा फ़र्ज़ी वीडियो जिसमें वो धर्म के ख़िलाफ़ बयान दे रहा है या कोई राजनीतिक कार्यकर्ता हिंसा की अपील कर रहा है. ये सभी चीज़ें कम संसाधनों, इंटरनेट और कम लोगों को लक्ष्य करके हासिल की जा सकती हैं.

किसी व्यक्ति को धमकाने, बेइज़्ज़त करने या ब्लैकमेल करने के मक़सद से बनाए गए डीपफेक साफ़ तौर पर अनैतिक हैं और लोकतांत्रिक प्रक्रिया पर उनके असर का निश्चित तौर पर विश्लेषण करना चाहिए.

डीपफेक के प्रकार

पहले डीपफेक का ग़लत इस्तेमाल बदला लेने के लिए पॉर्नोग्राफी के तौर पर होता था. डीपफेक पॉर्नोग्राफी के ज़रिए महिलाओं को निशाना बनाया जाता है, उन्हें भावनात्मक तौर पर चोट पहुंचाई जाती है, उनके सम्मान को नुक़सान पहुंचाया जाता है. क़रीब 96% डीपफेक पॉर्नोग्राफी वीडियो हैं. चार बड़ी डीपफेक पॉर्नोग्राफिक वेबसाइट को 13 करोड़ 40 लाख से ज़्यादा व्यूज़ मिले हैं.[3]

अक्सर बिना रज़ामंदी के तैयार डीपफेक पॉर्नोग्राफी परेशान करने वाली और अनैतिक होती है और कई साइट ने तो ऐसे कंटेंट पर पाबंदी भी लगा रखी है.

पॉर्नोग्राफिक डीपफेक किसी व्यक्ति को डरा-धमका सकते हैं, उनको मनोवैज्ञानिक नुक़सान पहुंचा सकते हैं. पॉर्नोग्राफिक डीपफेक महिलाओं को यौन वस्तु बनाते हैं, उन्हें यातना देते हैं जिसकी वजह से वो भावनात्मक तौर पर परेशान होती हैं, उनकी प्रतिष्ठा को नुक़सान होता है, उन्हें दुर्व्यवहार का शिकार होना पड़ता है और कुछ मामलों में तो उन्हें वित्तीय नुक़सान झेलना या रोज़गार से हाथ धोना पड़ता है. अक्सर बिना रज़ामंदी के तैयार डीपफेक पॉर्नोग्राफी परेशान करने वाली और अनैतिक होती है और कई साइट ने तो ऐसे कंटेंट पर पाबंदी भी लगा रखी है.[4][5][6]

जहां सहमति वाली पॉर्नोग्राफी है वहां नैतिक मुद्दा काफ़ी ज़्यादा पेचीदा है. कुछ लोग ये दलील दे सकते हैं कि ये नैतिक तौर पर स्वीकार्य यौन कल्पना के समान है लेकिन सहमति वाले डीपफेक कृत्रिम पॉर्नोग्राफी के विचार को सामान्य बना सकते हैं जिससे मनोवैज्ञानिक और यौन विकास पर पॉर्नोग्राफी के नकारात्मक असर को लेकर चिंता और बढ़ सकती है. वास्तविकतावादी वर्चुअल अवतार से भी नकारात्मक नतीजे आ सकते हैं. वर्चुअल अवतार की ओर प्रतिकूल क़दम नैतिक रूप से स्वीकार्य हो सकता है लेकिन ये किसी दूसरे व्यक्ति के साथ बर्ताव पर कैसे असर डालेगा?

चिंता का एक और क्षेत्र हैं कृत्रिम पुनर्जागरण. किसी व्यक्ति को ये अधिकार है कि वो अपनी पसंद के व्यावसायिक इस्तेमाल को नियंत्रित करे. अमेरिका के कुछ राज्यों जैसे मैसाचुसेट्स और न्यूयॉर्क में तो ये अधिकार ज़िंदगी के बाद भी है. लेकिन ये दूसरे देशों में मुश्किल और जटिल प्रक्रिया हो सकती है.[7]

सार्वजनिक हस्तियों के लिए चिंता का प्रमुख सवाल ये है कि उनकी मौत के बाद उनके चेहरे और आवाज़ पर किसका नियंत्रण है. क्या उनका इस्तेमाल प्रचार, दुष्प्रचार और व्यावसायिक फ़ायदे के लिए किया जा सकता है? राजनेताओं के निधन के बाद राजनीतिक और नीतिगत लक्ष्य हासिल करने के लिए उनके शोहरत को ग़लत ढंग से पेश करने के लिए किस तरह डीपफेक का इस्तेमाल किया जा सकता है, इसको लेकर नैतिक चिंताएं हैं. हालांकि, व्यावसायिक फ़ायदे के लिए किसी मृत व्यक्ति की आवाज़ और चेहरे के इस्तेमाल को लेकर कुछ क़ानूनी संरक्षण हैं लेकिन अगर उनके वारिस को इन ख़ासियतों को इस्तेमाल करने का क़ानूनी अधिकार है तो वो व्यावसायिक फ़ायदे के लिए इसका इस्तेमाल कर सकते हैं.

एक और संभावित नैतिक चिंता है किसी अपने की मौत के बाद उनका डीपफेक ऑडियो या वीडियो बनाना. कई वॉयस टेक्नोलॉजी कंपनी हैं जो कृत्रिम आवाज़ बनाकर लोगों को मरने वाले की याद दिलाती रहती हैं और उनके साथ जोड़े रखती हैं.[8] कुछ लोग ये दलील दे सकते हैं कि ये ठीक उसी तरह है जैसे कि लोग मृत व्यक्ति की तस्वीर या वीडियो अपने पास रखते हैं लेकिन आवाज़ या चेहरे की ख़ासियत के ज़रिए कृत्रिम डिजिटल वर्ज़न बनाने को लेकर नैतिक अस्पष्टता है.

गूगल के डुप्लेक्स के ज़रिए वॉयस असिस्टेंट की ऐसी ख़ासियत को विकसित करने की भी कोशिश हो रही है कि किसी व्यक्ति की तरफ़ से फोन करते समय ऐसा नहीं लगे कि वो इंसान की आवाज़ नहीं है.

हालांकि, एलेक्सा, कोर्टाना और सिरी जैसे वॉयस असिस्टेंट तेज़ी से वास्तविक आवाज़ में तब्दील हो रहे हैं लेकिन लोगों को अभी भी ये लगता है कि वो कृत्रिम आवाज़ हैं. स्पीच टेक्नोलॉजी में सुधार से वॉयस असिस्टेंट को लोगों की नक़ल करने और बातचीत के दौरान रुकने या शाब्दिक संकेत जैसे सामाजिक तत्वों पर ध्यान देने में मदद मिलती है. गूगल के डुप्लेक्स के ज़रिए वॉयस असिस्टेंट की ऐसी ख़ासियत को विकसित करने की भी कोशिश हो रही है कि किसी व्यक्ति की तरफ़ से फोन करते समय ऐसा नहीं लगे कि वो इंसान की आवाज़ नहीं है.[9]

इंसान जैसी मिलती-जुलती कृत्रिम आवाज़ भी कई नैतिक चिंताएं खड़ी करती है. चूंकि इंसान जैसी आवाज़ के लिए डीपफेक वॉयस टेक्नोलॉजी विकसित की गई है, ऐसे में लोगों की सामाजिक भागीदारी ख़तरे में पड़ सकती है. इन टेक्नोलॉजी के लिए ट्रेनिंग के दौरान नस्लीय और सांस्कृतिक पक्षपात भी दिख सकता है. कृत्रिम आवाज़ वाले डीपफेक का इस्तेमाल लोगों को पैसे के लिए ठगने और व्यावसायिक फ़ायदे के लिए भी किया जा सकता है. फोन के ज़रिए ठगी करने वाले कृत्रिम वॉयस टूल का ग़लत इस्तेमाल अपने फ़ायदे के लिए कर सकते हैं. डीपफेक तकनीक के ज़रिए पूरी तरह कृत्रिम चेहरा, व्यक्ति या सामान बनाया जा सकता है. धोखाधड़ी, जासूसी या घुसपैठ के मक़सद से फ़र्ज़ी डिजिटल पहचान बनाना अनैतिक है.[10] एक कृत्रिम चेहरा असली चेहरे की कई तस्वीरों के इस्तेमाल से बनाया जा सकता है. लेकिन जब तक इसके इस्तेमाल की उचित मंज़ूरी न मिली हो तब तक असली चेहरे के इस्तेमाल से कृत्रिम चेहरा बनाना अनैतिक है.

लोकतांत्रिक बातचीत और प्रक्रिया

राजनीति में एक सच को खींचना, नीतिगत दृष्टिकोण को ज़रूरत से ज़्यादा पेश करना और वैकल्पिक तथ्य सामने लाना सामान्य रणनीति है. इससे वोट और चंदा हासिल करने में मदद मिलती है. राजनीतिक मौक़ापरस्ती अनैतिक है लेकिन अब ये सामान्य है.

अगर राजनीतिक दल डीपफेक और कृत्रिम ऑडियो, वीडियो और तस्वीरों का इस्तेमाल करते हैं तो चुनाव के नतीजों पर गंभीर असर पड़ सकता है. छल-कपट लोगों को गंभीर नुक़सान पहुंचाते हैं क्योंकि इनकी वजह से लोग अपने हित में अच्छा फ़ैसला नहीं ले पाते हैं. विपक्ष के बारे में इरादतन ग़लत जानकारी पहुंचाने या चुनाव में किसी उम्मीदवार के लिए वैकल्पिक सच पेश करने से मतदाता धोखा देने वाले के हित में इस्तेमाल होते हैं. ये तौर-तरीक़े अनैतिक हैं और इनके ख़िलाफ़ सीमित क़ानूनी कार्रवाई हो सकती है.[11] इसी तरह मतदाताओं को वोट नहीं डालने के लिए धमकाने में डीपफेक का इस्तेमाल अनैतिक भी है.

डीपफेक का इस्तेमाल ग़लत जानकारी देने जैसे कि किसी उम्मीदवार के बारे में झूठ बोलने, उसके योगदान के बारे में ग़लत ढंग से बढ़ा-चढ़ाकर बात करने या किसी उम्मीदवार की प्रतिष्ठा को चोट पहुंचाने में भी हो सकता है. किसी को धोखा देने, धमकाने, ग़लत जानकारी देने और किसी की प्रतिष्ठा को चोट पहुंचाने के मक़सद से डीपफेक साफ़ तौर पर अनैतिक है. झूठ बोलने वाले को हुए फ़ायदे का इस्तेमाल करना भी अनैतिक है.

नैतिक ज़िम्मेदारी

डीपफेक बनाने वाले और इसे बांटने वाले इस बात को सुनिश्चित करें कि वो कृत्रिम ऑडियो, वीडियो और तस्वीरों का इस्तेमाल नैतिक रूप से करें. बड़ी तकनीकी कंपनियों जैसे माइक्रोसॉफ्ट, गूगल और एमेज़ॉन जो डीपफेक बनाने के लिए टूल और क्लाउड कंप्यूटिंग मुहैया कराती हैं, उनकी एक नैतिक ज़िम्मेदारी है.[12] फेसबुक, ट्विटर, लिंक्डइन और टिक-टॉक जैसे सोशल मीडिया प्लेटफॉर्म को डीपफेक के इस्तेमाल को लेकर एक नैतिक और सामाजिक ज़िम्मेदारी दिखानी चाहिए. साथ ही न्यूज़ मीडिया संगठनों, पत्रकारों, जनप्रतिनिधियों, नीति निर्माताओं और सिविल सोसायटी को भी ज़िम्मेदारी दिखानी होगी.

सोशल और टेक्नोलॉजी प्लेटफॉर्म की नैतिक ज़िम्मेदारी है नुक़सान से बचाना. इन प्लेटफॉर्म का इस्तेमाल करने वाले लोगों की कंटेंट को शेयर करने और इसे देखने की ज़िम्मेदारी हैं लेकिन ग़लत नीयत वाले डीपफेक के ख़िलाफ़ असरदार मुक़ाबले में उनकी मुख्य़ भूमिका नहीं है. यूज़र्स पर ग़लत नीयत वाले ऑडियो, वीडियो और तस्वीर का जवाब देने का बोझ डालना नैतिक रूप से उचित है. लेकिन तब भी सोशल मीडिया प्लेटफॉर्म को सही क़दम उठाना चाहिए और गुमराह करने वाले ऑडियो, वीडियो और तस्वीरों की पहचान और उन्हें फैलने से रोकने में प्राथमिक ज़िम्मेदारी लेनी चाहिए.

डीपफेक बनाने वाले और इसे बांटने वाले इस बात को सुनिश्चित करें कि वो कृत्रिम ऑडियो, वीडियो और तस्वीरों का इस्तेमाल नैतिक रूप से करें. बड़ी तकनीकी कंपनियों जैसे माइक्रोसॉफ्ट, गूगल और एमेज़ॉन जो डीपफेक बनाने के लिए टूल और क्लाउड कंप्यूटिंग मुहैया कराती हैं, उनकी एक नैतिक ज़िम्मेदारी है.

ज़्यादातर तकनीकी और सोशल प्लेटफॉर्म की ग़लत ख़बर और दुर्भावनापूर्ण कृत्रिम ऑडियो, वीडियो और तस्वीरों को लेकर नीतियां हैं लेकिन इन्हें नैतिक सिद्धांतों के साथ ज़रूर जोड़ना चाहिए. उदाहरण के लिए अगर कोई डीपफेक अच्छा-ख़ासा नुक़सान कर सकता है (प्रतिष्ठा या दूसरी चीज़ों को लेकर) तो उस सोशल मीडिया प्लेटफॉर्म को निश्चित रूप से ऐसे कंटेंट को हटा लेना चाहिए. इन प्लेटफॉर्म को अपने नेटवर्क में डीपफेक के प्रचार-प्रसार पर नियंत्रण स्थापित करने के लिए कार्रवाई करनी चाहिए. कंटेंट पर लेबल लगाना भी असरदार उपाय है. इसका इस्तेमाल बिना किसी राजनीतिक पूर्वाग्रह या मुनाफ़े को सोचे बिना निष्पक्ष और पारदर्शी तरीक़े से करना चाहिए.

सोशल मीडिया प्लेटफॉर्म की ये ज़िम्मेदारी है कि वो अपने यूज़र्स के लिए एक नियम बनाएं. इसका असर कंटेंट बनाने वालों पर पड़ेगा. नियम और सामुदायिक दिशा-निर्देश सोशल मीडिया प्लेटफॉर्म की उम्मीदों के मुताबिक़ यूज़र के बर्ताव पर असर डाल सकते हैं. इस्तेमाल की शर्तें और नीतियां नुक़सानदायक फ़र्ज़ी ऑडियो, वीडियो और तस्वीरों को फैलने से रोकने में सार्थक भूमिका निभा सकती हैं. फ़र्ज़ी ऑडियो, वीडियो और तस्वीरों से जुड़ी समस्याओं का मुक़ाबला करने में दिलचस्पी रखने वाले संस्थान का ये नैतिक उत्तरदायित्व है कि वो मीडिया साक्षरता कार्यक्रम से लोगों को जोड़ें. सोशल मीडिया प्लेटफॉर्म यूज़र्स को निश्चित तौर पर जानकारी और अहम मीडिया साक्षरता से जोड़ें ताकि वो किसी भी जानकारी को उचित ढंग से शेयर कर सकें. मीडिया की व्यावहारिक जानकारी यूज़र्स को सही ढंग से सोचने और ज़िम्मेदार नागरिक बनने में मदद कर सकती है.

निष्कर्ष

डीपफेक ऑडियो, वीडियो और तस्वीरों को अक्सर बिना मंज़ूरी के फ़र्ज़ी बनाते हैं और इसकी वजह से मनोवैज्ञानिक नुक़सान, राजनीतिक अस्थिरता और कारोबार में दिक़्क़त आती है. डीपफेक का हथियार के तौर पर इस्तेमाल अर्थव्यवस्था, व्यक्तिगत स्वतंत्रता और राष्ट्रीय सुरक्षा पर व्यापक असर डाल सकता है. डीपफेक का नैतिक असर बहुत ज़्यादा है. साझेदारी करके और सिविल सोसायटी की देखरेख में नैतिक AI सिद्धांत और नियम ज़रूर विकसित किया जाना चाहिए ताकि जागरुकता बढ़े और नये आविष्कार और तरक़्क़ी को बढ़ावा मिले.


Endnotes

[1]Robert Chesney and Danielle Keat Citron, “A Looming Challenge for Privacy, Democracy, and National Security”, California Law Review 1753, 2019.

[2] Ibid.

[3] Giorgio Patrini, Henry Ajder, Francesco Cavalli, and Laurence Cullen, “The State of deepfakes”, Deeptrace, October 7, 2019.

[4] LinkedIn, “LinkedIn Professional Community Policies”, LinkedIn, 2020.

[5] Reddit, “Updates to Our Policy Around Impersonation”, Reddit, January 9, 2020.

[6] Twitter, “Building rules in public: Our approach to synthetic & manipulated media”, Twitter, February 4, 2020.

[7] Tim Sharp “Right to Privacy: Constitutional Rights & Privacy Laws”, Live Science, 2013.

[8] Henry Ajder, “The ethics of deepfakes aren’t always black and white”, The Next Web, June 16, 2019.

[9] Natasha Lomas, “Duplex shows Google failing at ethical and creative AI design”, Tech Crunch, May 10, 2018.

[10] “The State of deepfakes”

[11] Nicholas Diakopoulos and Deborah Johnson. 2019. “Anticipating and Addressing the Ethical Implications of Deepfakes in the Context of Elections”. New Media & Society 27, 2020.

[12] Mira Lane, “Responsible Innovation: The Next Wave of Design Thinking”, Microsoft Design on Medium, May 19, 2020.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.