Advertisment

‘டீப்ஃபேக்’ குறித்து கவலை எழுப்பிய மோடி; போலி வீடியோக்கள், ஆடியோக்களை கண்டறிய 10 வழிகள்

செய்தியாளர்களிடம் பேசிய பிரதமர் நரேந்திர மோடி, டீப்ஃபேக்குகளின் அச்சுறுத்தல் பெரும் கவலையாக மாறியுள்ளது. இது அனைவருக்கும் நிறைய பிரச்னைகளை உருவாக்கும் என்று கூறினார். நீங்கள் அவைகளை எப்படி கண்டுபிடிக்க முடியும்?

author-image
WebDesk
New Update
AI Deepfake Modi

செய்தியாளர்களிடம் பேசிய பிரதமர் நரேந்திர மோடி, டீப்ஃபேக்குகளின் அச்சுறுத்தல் பெரும் கவலையாக மாறியுள்ளது என்று கூறினார்.

செய்தியாளர்களிடம் பேசிய பிரதமர் நரேந்திர மோடி, டீப்ஃபேக்குகளின் அச்சுறுத்தல் பெரும் கவலையாக மாறியுள்ளது. மேலும், இது அனைவருக்கும் நிறைய பிரச்சனைகளை உருவாக்கும் என்று கூறினார். நீங்கள் அவைகளை எப்படி கண்டுபிடிக்க முடியும்?

Advertisment

ஆங்கிலத்தில் படிக்க: PM Modi raises concern over ‘deepfakes’: 10 ways to spot fake videos and audios

பிரதமர் நரேந்திர மோடி வெள்ளிக்கிழமை (நவம்பர் 17) செயற்கை நுண்ணறிவு (AI) எவ்வாறு செயல்படுகிறது என்பதைப் புரிந்துகொள்வது அவசியம் என்று கூறினார். ஏனெனில், தவறான தகவல்களை வேண்டுமென்றே பரப்புவதற்கு அல்லது அவற்றின் பயன்பாட்டின் பின்னால் தீங்கிழைக்கும் நோக்கம் கொண்ட ‘டீப்ஃபேக்குகளை’ உருவாக்க இது பயன்படுத்தப்படலாம். மேலும், இது குறித்து ஊடகங்கள் விழிப்புணர்வை ஏற்படுத்த வேண்டும் என்றும் அவர் வலியுறுத்தினார்.

“நான் சமீபத்தில் ஒரு வீடியோவைப் பார்த்தேன், அதில் நான் ஒரு கர்பா பாடலைப் பாடுவதைக் காண முடிந்தது. இதுபோன்ற பல வீடியோக்கள் ஆன்லைனில் உள்ளன” என்று பிரதமர் மோடி கூறினார். மேலும், “டீப்ஃபேக்குகளின் அச்சுறுத்தல் பெரும் கவலையாக மாறியுள்ளது, இது அனைவருக்கும் நிறைய சிக்கல்களை உருவாக்கக்கூடும்.” என்று பிரதமர் மோடி கூறினார்.

பெரும்பாலும், நடிகை ராஷ்மிகா மந்தனா லிஃப்டில் நுழைந்த வீடியோ சமூக ஊடகங்களில் வைரலானதை அடுத்து சர்ச்சை வெடித்தது. ஆரம்பத்தில் இந்த உண்மையானதாகத் தோன்றியது, உண்மையில், ராஷ்மிகா அது இல்லை, அது ஒரு போலியான வீடியோ, அசல் வீடியோவில் ஜாரா பட்டேல் என்ற பிரிட்டிஷ் இந்தியப் பெண் இடம்பெற்றிருந்தார். அதற்குப் பதிலாக மந்தனாவின் முகத்தை வைத்து அவரது முகம் மார்பிங் செய்யப்பட்டது. இதுமட்டுமின்றி, இன்ஸ்டாகிராம் போன்ற தளங்களில் அரசியல் தலைவர்களின் டீப்ஃபேக் ஆடியோக்கள் மற்றும் வீடியோக்கள் அதிகரித்து வருகின்றன.


டீப்ஃபேக் வீடியோக்கள், ஆடியோவை எப்படி அடையாளம் காண்பது?

ஏ.ஐ குரல் குளோன்கள் மற்றும் சாத்தியமான ஆடியோ டீப்ஃபேக்குகளைக் கையாள்வதற்கு விழிப்புணர்வும் செயலூக்கமான நடவடிக்கைகளும் தேவை. சமூக ஊடகங்களில் வீடியோ அல்லது ஆடியோ கிளிப்பைப் பார்க்கும் போதெல்லாம் நீங்கள் பின்பற்ற வேண்டிய சில படிகள் இங்கே:

1. இயற்கைக்கு மாறான கண் அசைவுகள்: டீப்ஃபேக் வீடியோக்கள் பெரும்பாலும் இயற்கைக்கு மாறான கண் அசைவுகள் அல்லது பார்வை வடிவங்களை வெளிப்படுத்துகின்றன. உண்மையான வீடியோக்களில், கண் அசைவுகள் பொதுவாக மென்மையாகவும், நபரின் பேச்சு மற்றும் செயல்களுடன் ஒருங்கிணைக்கப்பட்டதாகவும் இருக்கும்.

2. நிறம் மற்றும் வெளிச்சத்தில் பொருத்தமின்மை: டீப்ஃபேக் படைப்பாளிகளுக்கு துல்லியமான வண்ண டோன்கள் மற்றும் லைட்டிங் நிலைமைகளை பிரதிபலிப்பதில் சிரமம் இருக்கலாம். பொருளின் முகம் மற்றும் சுற்றுப்புறங்களில் வெளிச்சத்தில் ஏதேனும் முரண்பாடுகள் இருந்தால் கவனம் செலுத்துங்கள்.

3. ஆடியோ தரத்தை ஒப்பிட்டு வேறுபடுத்துங்கள்: டீப்ஃபேக் வீடியோக்கள் பெரும்பாலும் நுட்பமான குறைபாடுகளைக் கொண்ட ஏ.ஐ-ஆல் உருவாக்கப்பட்ட ஆடியோவைப் பயன்படுத்துகின்றன. காட்சி உள்ளடக்கத்துடன் ஆடியோ தரத்தை ஒப்பிடுங்கள்.

4. விசித்திரமான உடல் வடிவம் அல்லது இயக்கம்: டீப்ஃபேக்குகள் சில நேரங்களில் இயற்கைக்கு மாறான உடல் வடிவங்கள் அல்லது அசைவுகளை ஏற்படுத்தலாம். உதாரணமாக, கைகால்கள் மிக நீளமாகவோ அல்லது குறுகியதாகவோ தோன்றலாம் அல்லது உடல் அசாதாரணமான அல்லது சிதைந்த விதத்தில் நகரலாம். குறிப்பாக உடல் செயல்பாடுகளின் போது இந்த முரண்பாடுகளுக்கு கவனம் செலுத்துங்கள்.


5. செயற்கை முக அசைவுகள்: டீப்ஃபேக் மென்பொருள் எப்போதும் உண்மையான முகபாவனைகளைத் துல்லியமாகப் பிரதிபலிக்காது. மிகைப்படுத்தப்பட்டதாகவோ, பேச்சுடன் ஒத்திசைக்காததாகவோ அல்லது வீடியோவின் சூழலுடன் தொடர்பில்லாததாகவோ தோன்றும் முக அசைவுகளைத் தேடுங்கள்.


6. முக அம்சங்களின் இயற்கைக்கு மாறான நிலைப்பாடு: டீப்ஃபேக்குகள் எப்போதாவது இந்த அம்சங்களில் சிதைவுகள் அல்லது தவறான அமைப்புகளை வெளிப்படுத்தலாம், இது கையாளுதலின் அடையாளமாக இருக்கலாம்.

7. மோசமான தோரணை அல்லது உடலமைப்பு: டீப்ஃபேக்குகள் இயற்கையான தோரணை அல்லது உடலமைப்பை பராமரிக்க போராடலாம். அசாதாரணமான அல்லது உடல் ரீதியாக நம்பமுடியாததாக தோன்றும் எந்த மோசமான உடல் நிலைகள், விகிதாச்சாரங்கள் அல்லது அசைவுகளில் கவனம் செலுத்துங்கள்.

8. பகிர்வதற்கு முன் சரிபார்க்கவும்: ஆடியோ அல்லது வீடியோ கிளிப்பின் மூலத்தைச் சரிபார்க்க வேண்டும். ஆதாரம் நம்பகமானதாக இல்லாவிட்டால், அதை பகிர்வதைத் தவிர்க்க வேண்டும்.

9. தகவலறிந்து இருங்கள்: சமீபத்திய அரசியல் நடப்புகள் மற்றும் முக்கிய அரசியல் தலைவர்களின் அறிக்கைகள் குறித்து உங்களை அப்டேட்டாக வைத்துக்கொள்ளுங்கள். இதன் மூலம் அரசியல்வாதி ஒருவர் சர்ச்சைக்குரிய அறிக்கையை வெளியிடும் பரவலாக பகிரப்படும் ஆடியோ அல்லது வீடியோ கிளிப்பின் வலையில் சிக்காமல் இருக்க வேண்டும்.

10. முடிந்தால் ஏ.ஐ கண்டறிதல் கருவிகளைப் பயன்படுத்தவும்: ஆன்லைனில் சில ஏ.ஐ குரல் கண்டறிதல் கருவிகள் உள்ளன, இருப்பினும், ஏ.ஐ குரல் குளோனிங் கருவிகளைப் போலன்றி, இவை இலவசம் அல்ல. இவற்றில் சில aivoicedetector.com, மற்றும் play.ht ஆனது AI குரல்களைக் கண்டறியவும் பயன்படுத்தலாம்.

“தமிழ் இந்தியன் எக்ஸ்பிரஸின் அனைத்து செய்திகளையும் உடனுக்குடன் டெலிகிராம் ஆப்பில் பெற https://t.me/ietamil

Artificial Intelligence
Advertisment

Stay updated with the latest news headlines and all the latest Lifestyle news. Download Indian Express Tamil App - Android or iOS.

Follow us:
Advertisment