பெண்களின் போலி நிர்வாண படங்களை உருவாக்க பயனர்களை அனுமதிக்கும் DeepNude என்ற செயலியை அதன் தயாரிப்பாலர்கள் கைவிட்டுள்ளனர்!
DeepNude என்னும் செயலி, பெண்களின் புகைப்படத்தை கொண்டு அவர்களில் போலி நிர்வாண புகைப்படங்களை உருவாக்கும் செயற்கை நுன்னறிவு செயலி ஆகும். இந்த செயலியின் திறனை இளைஞர்கள் தவறாக பயன்படுத்துவதை உணர்ந்த இச்செயலியின் தயாரிப்பாளர்கள், இச்செயலினை பயன்பாட்டில் இருந்து கைவிட்டுள்ளது.
இதுகுறித்து இச்செயலியின் தயாராப்பாளர்கள் வெளியிட்டு உள்ள ட்விட்டர் பதிவில்., DeepNude செயலியின் தவறான பயன்பாட்டை உணர்ந்து அதன் பயன்பாட்டினை கைவிடுகிறோம். தற்போது விண்டோஸ் மற்றும் லினக்ஸில் இயங்குதளங்களில் இயங்காத வகையில் இந்த செயலிக்கு தடை ஏற்படுத்தப்பட்டுள்ளது என குறிப்பிட்டுள்ளனர்.
மேலும் இந்த செயலி முதன்முதலில் மதர்போர்டால் முன்னிலைப்படுத்தப்பட்டது என்றும், பெண்களின் நிர்வாண புகைப்படங்களை மட்டுமே உருவாக்குகிறது என்றும் குறிப்பிட்டுள்ளது. அதேவேளையில் ஒரு ஆணின் புகைப்படத்தை இந்த செயலில் பயன்படுத்தும் போதிலும், குறிப்பிட்ட அந்த ஆணின் உருவம் பெண்ணின் அங்கங்களை கொண்டு வருவதாகவும் குறிப்பிட்டுள்ளது. எனவே இந்த செயலியின் நோக்கம் முற்றிலமாக மாற்றப்பட்டதை உணர்ந்து இந்த செயலியின் பயன்பாட்டை முடக்கியுள்ளது.
I’m glad DeepNude is dead. As a person and as a father, I thought this was one of the most disgusting applications of AI. To the AI Community: You have superpowers, and what you build matters. Please use your powers on worthy projects that move the world forward.
— Andrew Ng (@AndrewYNg) June 28, 2019
அந்த அறிக்கையின்படி, DeepNude செயலியின் இலவச சந்தாதரப்பில் உருவாக்கப்பட்ட நிர்வாணப் படம் ஒரு போலி என்று ஒரு வாட்டர்மார்க் இருந்தது. ஒரு பிரீமியம் பதிப்பு ‘fake’ என்னும் வாட்டர்மார்க் கொண்டு வெளியாகும். ஆனால் ப்ரீமியம் சந்தாதரர்களுக்கு இந்து fake குறியிடும் மிகவும் குறைவான அளவிலேயே பதிவிட்டு காட்டுகிறது. இந்த fake குறியீட்டினை எளிதாக பயனர்களால் அகற்ற இயலும். எனவே இந்த புகைப்படங்கள் போலி புகைப்படங்கள் என்பதை பயனர்களால் எளிதில் மறைக்க முடியும் என்பதாலும் இந்த செயலி தடை செய்யப்படுவதாகவும் குறிப்பிட்டுள்ளது.