Deepfake Technology: डीपफेक पर भारत सरकार सख्त, जल्द आ सकता है कोई बड़ा कानून
Advertisement
trendingNow0/india/delhi-ncr-haryana/delhiharyana1974794

Deepfake Technology: डीपफेक पर भारत सरकार सख्त, जल्द आ सकता है कोई बड़ा कानून

डीपफेक टेक्नोलॉजी से निपटने के लिए केंद्र सरकार कड़े नियम ला सकती है. इस टेक्नोलॉजी ने अभी तक कई बॉलीवुड कलाकार के साथ-साथ कई लोगों को भी अपना शिकार बनाया है.  

 

Deepfake Technology: डीपफेक पर भारत सरकार सख्त, जल्द आ सकता है कोई बड़ा कानून

Deepfake Technology: भारत में डीपफेक टेक्नोलॉजी का खतरा काफी ज्यादा बढ़ा हुआ है. केंद्र सरकार इससे निपटने के लिए जल्द ही कोई फैसला ले सकती है. ऐसा माना जा रहा है कि सरकार इसे लेकर कड़े नियम ला सकती है. AI का गलत इस्तेमाल कर फेक वीडियो को सोशल मीडिया पर वायरल किया जा रहा है. इस पर केंद्र सरकार ने सोशल मीडिया कंपनियों से एक्शन लेने को कहा है. 23 नवंबर को एक प्रेस कॉन्फ्रेंस को संबोधित करते हुए केंद्रीय संचार एवं सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने कहा डीपफेक लोकतंत्र के लिए एक नया खतरा है. इस मामले में सरकार रेगुलेशन लाने पर विचार कर रही है. उन्होंने ये भी कहा कि डीपफेक से निपटने के लिए हमारे पास जल्द ही नए नियम होंगे. 

डीपफेक को रोकने के लिए कार्रवाई की जरूरत
अश्विनी वैष्णव ने बताया कि सोशल मीडिया कंपनी इस बात पर सहमत है कि डीपफेक का पता लगाने और उसे रोकने के लिए कार्रवाई की जरूरत है. उन्होंने कहा कि कंपनियां डीपफेक का पता लगाने और इससे निपटने, इसकी सूचना देने के तंत्र को मजबूत करने और स्पष्ट कार्रवाइयां करने पर सहमत हुई.

ये भी पढ़ें- Anil Vij News: विपक्ष पर अनिल विज का हमला, कहा- जो 70 साल में नहीं हुआ वो अब होगा

पत्रकारों कही ये बात
वैष्णव ने पत्रकारों से कहा हम आज से विनियमन का मसौदा तैयार करना शुरू कर देंगे. डीपफेक से निपटने के लिए कुछ ही समय में हमारे पास नए नियम होंगे. यह मौजूदा ढांचे में संशोधन या नए कानून के रूप में हो सकता है. उन्होंने आगे कहा हमारी अगली बैठक सोशल मीडिया के साथ दिसंबर के पहले सप्ताह में होगी. आज के किए गए फैसलों में उसमें आगे की चर्चा की जाएगी.  डीपफेक ने बॉलीवुड के कई कलाकारों को भी अपना शिकार बनाया है. इनके वीडियो सोशल मीडिया पर भी वायरल हो चुके हैं. इन वीडियो के वायरल होने के बाद काफी लोगों ने नाराजगी जाहिर की थी.