Home Latest ‘डीपफेक’ टेकनोलॉजी | Deepfake Technology |

‘डीपफेक’ टेकनोलॉजी | Deepfake Technology |

0 comment

भाईसाब…इन दिनों देश में ‘डीपफेक’ की बड़ी चर्चा है, हाल ही में प्रधानमंत्री नरेंद्र मोदी ने भी ‘डीपफेक’ के खतरे को आगाह किया है. मोदी ने कहा कि डीपफेक समाज में अशांति पैदा करता है। मोदी ने कहा कि जेनरेटिव AI के माध्मय से बनाए गए किसी भी वीडियो या तस्वीर पर डिस्क्लेमर होना जरूरी है और यह बताना जरूरी है कि इसे डिपफेक करके बनाया गया है। यह भारतीय प्रणाली के सामने एक बड़े खतरे में से एक है। लोगों को इससे सतर्क रहने की जरूरत है।
तो भाईसाब, आज के इस लेख में हम ‘डीपफेक’ और उसके दुष्प्रभाव के बारे में जानेंगे और ‘डीपफेक’ के संकट को लेकर अपने वाचकों को जागृत करने का प्रयास करेंगे।

भाईसाब, आपको बता दें कि बीते महीने सोशल मीडिया पर पीएम मोदी का गरबा डांस बताकर एक वीडियो काफी वायरल हुआ. इसमें प्रधानमंत्री जैसा दिख रहा एक व्यक्ति कुछ महिलाओं के साथ गरबा करता नजर आ रहा है. ऐसा कहा जा रहा है कि यह नवरात्र में गरबा खेलते हुए प्रधानमंत्री नरेंद्र मोदी का वीडियो है. इस दावे के साथ यह वीडियो फेसबुक और ट्विटर पर काफी वायरल हो रहा है। लेकिन इसकी जांच में पाया गया कि ये वीडियो प्रधानमंत्री मोदी का नहीं बल्कि उनके जैसे दिखने वाले एक एक्टर विकास महंते का है. हाल ही में खुद पीएम मोदी ने बताया, ‘हाल ही में मैंने एक वीडियो देखा जिसमें मैं गाना गा रहा था। मुझे पसंद करने वाले कुछ लोगों ने मुझे भेजा।’ पीएम ने बताया कि वीडियो में मुझे गरबा गीत गाते दिखाया गया है, ऐसे कई वीडियो ऑनलाइन पड़े हुए हैं। मोदी का कहना है कि डीपफेक डिजिटल युग के लिए एक खतरा है। यह समझना बहुत जरूरी है कि आर्टिफिशियल इंटेलिजेंस यानी AI कैसे काम करता है, क्योंकि इसका उपयोग जानबूझकर गलत जानकारी फैलाने या दुर्भावनापूर्ण इरादे से किया जा सकता है। भाईसाब, आपको ये जानकार हैरानी होगी कि डीपफेक के शिकार फिल्मी सितारे भी हो चुके हैं. आपको बता दें कि हाल ही में ऐक्ट्रेस रश्मिका मंधाना का डीपफेक वीडियो वायरल हो गया था। अब उनके बाद काजोल भी डीपफेक की शिकार हो चुकी हैं। सोशल मीडिया पर काजोल का एक कपड़े बदलते हुए फर्जी वीडियो वायरल हो रहा है। वीडियो में डीपफेक तकनीक का इस्तेमाल अश्लीलता फैलाने के लिए किया गया। वहीं रश्मिका मंदाना केस में दिल्ली पुलिस ने एफआईआर दर्ज करने के बाद आरोपी को गिरफ्तार कर लिया। पुलिस ने बिहार के रहने वाले 19 साल के युवक को गिरफ्तार किया था। इसके बाद टाइगर-3 से कटरीना कैफ की फेक फोटोज और अब सारा तेंदुलकर-शुभमन गिल की फोटो को मॉर्फ करके वायरल किया गया। पहले भी डीपफेक का प्रयोग होते रहा है लेकिन AI के आने के बाद ऐसे मामलों में जमकर बढ़ोतरी हुई है।
भाईसाब, ‘डीपफेक’ के खतरे से बचना है तो कुछ कामों को जरूर करें. मसलन, सोशल मीडिया अकाउंट को पब्लिक न करें। सोशल मीडिया पर कोई भी फोटो पोस्ट कर रहे हैं तो उसे सिर्फ अपने फ्रेंड के लिए ही विजिबल रखें। और अगर आप सोशल मीडिया इन्फ्लुएंसर हैं तो भी अपने अकाउंट पर सुरक्षा का ध्यान रखें। फोटो शेयर करते वक्त अलर्ट रहें। इसके अलावा अपने बच्चों की वीडियो और फोटो सोशल मीडिया पर पोस्ट करने से बचें। साथ ही बच्चों को सोशल मीडिया के सही प्रयोग के बारे में जानकारी जरूर दें।
भाईसाब, अब आपके जेहन में सवाल उठ रहा होगा कि अगर ऐसा वीडियो सामने आए तो क्या करे ? तो भाईसाब, इस प्रकार के मामलों में फौरन stopncii.org पर शिकायत करें। इसके बाद साइबर सेल में शिकायत दें और एफआईआर दर्ज करवाएं। और एफआईआर के बाद कुछ साइट डीपफेक विडियो की अधिक डिटेल देते हैं, एक्सपर्ट के साथ उससे मदद ले सकते हैं। जिस सोशल मीडिया फ्लैटफॉर्म पर विडियो यूज होने की बात है। उसमें भी सिक्युरिटी में जाकर फेक के गलत प्रयोग की शिकायत करें। अगर आप उस वीडियो में नहीं हैं तो किसी भी कीमत पर ठगों के झांसे में न आएं और कोई भी रुपये ट्रांसफर न करें।
भाईसाब, अब आपके मन से सवाल उठ रहे होंगे कि आखिर ‘डीपफेक’ टेक्नोलॉजी है क्या ? तो हम आपको बताते हैं कि आजकल तकनीक और आर्टिफिशियल इंटेलिजेंस यानी AI की मदद से किसी भी तस्वीर, वीडियो और ऑडियो को छेड़छाड़ करके बिल्कुल अलग बनाया जा सकता है. मसलन, किसी नेता, अभिनेता या सेलिब्रिटी की स्पीच को उठा कर आर्टिफिशियल इंटेलिजेंस बेस्ड टूल के ज़रिए पूरी तरह से बदला जा सकता है। लेकिन सुनने और देखने वाले को इसका पता भी नहीं चलेगा और वो उसे सच मान बैठेगा। इसी को डीपफेक कहा जाता है। पहले फोटोशॉप और दूसरे टूल्स की मदद से लोगों की फोटोज को मॉर्फ करते थे लेकिन डीपफेक इससे आगे की कहानी हैं. इसमें फेक वीडियो को इतनी बारीकी से एडिट किया जाता है कि वो रियल लगने लगती है. इसके लिए एक एल्गोरिद्म को उस शख्स के हाई क्वालिटी फोटोज और वीडियोज के जरिए ट्रेन किया जाता है जिसे डीप लर्निंग कहते हैं। इसके बाद दूसरे वीडियो में इस एल्गोरिद्म की मदद से किसी एक हिस्से को मॉर्फ किया जाता है. इसकी मदद से एडिट किया गया वीडियो पूरी तरह से रियल लगता है. इसके लिए वॉयस क्लोनिंग तक का इस्तेमाल किया जाता है। आपको यह भी बता दें कि किसी के रूप को बदलने की प्रक्रिया को मॉर्फ कहा जाता है।
भाईसाब, चलिए, अब हम जान लेते हैं वो कानून जो आपके लिए ऐसे मामलों में मददगार साबित हो सकते हैं। सूचना प्रौद्योगिकी अधिनियम के तहत जो भी शख्स इसमें दोषी पाया जाएगा, उसे 3 साल तक की कैद हो सकती है और उस पर 1 लाख रुपये तक का जुर्माना भी लगाया जा सकता है। इसके अलावा डीपफेक के जरिए किसी का अपमान करने पर उसपर मानहानि का केस भी किया जा सकता है।
तो भाईसाब, बता दें कि अक्सर कुछ लोग सिर्फ अपने फायदे या किसी से बदला लेने के लिए तकनीक का गलत प्रयोग करते हैं। वर्तमान दौर में तकनीक एक चैलेंज है, लेकिन हमें उसके साथ ही रहना होगा। ऐसे में हमें ही कुछ सावधानियां बरतने की जरूरत है।
भाईसाब, अब आपके लिए कुछ सवाल हैं, क्या ‘डीपफेक’ समाज के लिए खतरा बन सकता है ? दूसरा, क्या हम और आप मिलकर टेक्नोलॉजी के दुरुपयोग को नहीं रोक सकते ? हमें आपका जवाब कमैंट्स में ज़रूर बताये।
धन्यवाद!

You may also like

bhaisaab logo original

About Us

भाई साब ! दिल जरा थाम के बैठिये हम आपको सराबोर करेंगे देशी संस्कृति, विदेशी कल्चर, जलेबी जैसी ख़बरें, खान पान के ठेके, घुमक्कड़ी के अड्डे, महानुभावों और माननीयों के पोल खोल, देशी–विदेशी और राजनीतिक खेल , स्पोर्ट्स और अन्य देशी खुरापातों से। तो जुड़े रहिए इस देशी उत्पात में, हमसे उम्दा जानकारी लेने और जिंदगी को तरोताजा बनाए रखने के लिए।

Contact Us

Bhaisaab – All Right Reserved. Designed and Developed by Global Infocloud Pvt. Ltd.