Explained: How Google blocks accounts over child sexual abuse material: உங்கள் கூகுள் புகைப்படங்கள் (Google Photos) பகுதியில் உங்கள் குழந்தைகளின் நிர்வாணப் படங்கள் இடம்பெறுவதால், உங்கள் கூகுள் கணக்கிற்கான அணுகல் ரத்து செய்யப்படுமா? சான் பிரான்சிஸ்கோவில் உள்ள ஒரு பெற்றோரின் விஷயத்திலும், டெக்சாஸில் மற்றொருவரின் விஷயத்திலும் அதுதான் நடந்ததாகத் தெரிகிறது. குழந்தைகளின் தனிப்பட்ட படங்களை குழந்தை பாலியல் துஷ்பிரயோகம் (CSAM) என சிஸ்டம் சுட்டிக்காட்டியதால், இரு பெற்றோர்களும் தங்கள் கூகுள் கணக்குகளுக்கான அணுகலை இழந்தனர். தி நியூயார்க் டைம்ஸ் (NYT) செய்தி வெளியிட்டுள்ள இந்த கதை, கூகுள் போன்ற நிறுவனங்கள் பயன்படுத்தும் பயனர் தனியுரிமை மற்றும் CSAM கண்காணிப்பைச் சுற்றியுள்ள சிக்கலான பிரச்னைகளை எடுத்துக்காட்டுகிறது.
சாத்தியமான துஷ்பிரயோகத்திற்காக சுட்டிக்காட்டப்பட்டது
தி நியூயார்க் டைம்ஸின் கதையின்படி, சான் பிரான்சிஸ்கோவில் உள்ள ஒரு தந்தை மருத்துவரிடம் அனுப்புவதற்காக தனது மகனின் பிறப்புறுப்பின் படத்தை எடுத்துள்ளார். அவர் ஆண்ட்ராய்டு ஃபோனைப் பயன்படுத்தினார், மேலும் அவரது கூகுள் புகைப்படக் கணக்கில் அந்தப் படம் காப்புப் பிரதி எடுக்கப்பட்டது. ஆனால் கூகுளின் சிஸ்டம் இதை CSAM என சுட்டிக்காட்டியது, மேலும் அவரது கணக்கு அணுகல் இடைநிறுத்தப்பட்டது. தந்தையும் போலீஸ் விசாரணையை எதிர்கொண்டார். ஏனென்றால், கூகுளின் சிஸ்டம் CSAM ஐக் கண்டறிந்தால், அவர்கள் அமெரிக்காவில் உள்ள காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையத்திற்கு (NCMEC) “சைபர் டிப்லைன்” அறிக்கையையும் அனுப்புகிறார்கள்.
இதையும் படியுங்கள்: ஓரினச்சேர்க்கையை குற்றமாக கருதும் சட்டத்தை ரத்து செய்ய சிங்கப்பூர் முடிவு
NCMEC பின்னர் சட்ட அமலாக்க முகமைகளை ஈடுபடுத்தலாம். இதேபோன்ற கதை டெக்சாஸில் மற்றொரு தந்தையுடன் வெளிப்பட்டது. இரு பெற்றோரையும் போலீசார் விடுவித்தாலும், கூகுள் அவர்களுக்கு அனுமதி வழங்கவில்லை.
கூகுள் தானாகவே புகைப்படங்களை ஸ்கேன் செய்து CSAMஐக் கண்டறிவதில் இந்தச் சிக்கல் ஏற்படுவது இது முதல் முறை அல்ல. 2020 ஆம் ஆண்டில், கன்சாஸை தளமாகக் கொண்ட ஒரு கலைஞருக்கு எதிராக அவரது சில கலைப் படைப்புகளை CSAM என கூகுள் அடையாளம் கண்ட பிறகு அவருக்கு எதிராக எப்படி வாரண்ட் பிறப்பிக்கப்பட்டது என்று ஃபோர்ப்ஸ் தெரிவித்துள்ளது.
கூகுளின் சொந்த வெளிப்படைத்தன்மை அறிக்கையின்படி, இது CSAM பற்றிய 458,178 அறிக்கைகளை அமெரிக்காவில் உள்ள NCMECக்கு அனுப்பியது மற்றும் 2021 ஜூன் முதல் டிசம்பர் வரையிலான காலகட்டத்தில் 3.2 மில்லியனுக்கும் அதிகமான உள்ளடக்கத்தைப் புகாரளித்துள்ளது. மேலும், அதே காலகட்டத்தில் 140,868 கணக்குகள் முடக்கப்பட்டுள்ளன.
CSAM ஐ கூகுள் எப்படி ஸ்கேன் செய்கிறது
"எங்கள் பயனர்கள் மற்றும் NGOகள் போன்ற மூன்றாம் தரப்பினரால் சமர்ப்பிக்கப்படும் அறிக்கைகளை நம்பியிருப்பதைத் தவிர, தானியங்கி கண்டறிதல் மற்றும் மனித மதிப்பாய்வை, எங்கள் தளங்களில் CSAM ஐக் கண்டறியவும், அகற்றவும் மற்றும் புகாரளிக்கவும், பயன்படுத்துகிறோம்" என்று கூகுள் கூறுகிறது.
ஆனால் இது முதன்மையாக CSAM ஐ ஸ்கேன் செய்து குறியிட இரண்டு முக்கிய தொழில்நுட்பங்களைப் பயன்படுத்துகிறது. Google Drive, Google Photos போன்றவற்றில் நீங்கள் பதிவேற்றக்கூடிய படங்கள், வீடியோக்கள் மற்றும் கோப்புகளுக்கு இது பொருந்தும். உங்கள் கூகுள் கணக்கு இந்தச் சேவைகள் அனைத்திலும் இணைக்கப்பட்டுள்ளது என்பதை நினைவில் கொள்ளவும்.
முதல் தொழில்நுட்பம் ஹாஷ் மேட்சிங் ஆகும், இதில் யூடியூபின் CSAI (குழந்தைகள் பாலியல் துஷ்பிரயோகம் இமேஜரி) பொருத்த தொழில்நுட்பமும் உள்ளடங்கும். CSAI மேட்ச் என்பது சிறுவர் துஷ்பிரயோகத்தின் வீடியோக்களை எதிர்த்துப் போராடுவதற்கு YouTube இல் பயன்படுத்தப்பட்ட தொழில்நுட்பமாகும், மேலும் Google இன் படி, "முன்னர் அடையாளம் காணப்பட்ட சிறுவர் பாலியல் துஷ்பிரயோகப் பொருட்களின் மறு பதிவேற்றங்களை வீடியோக்களில்" கண்டறிய முடியும். இந்த குறிப்பிட்ட API ஐ கூகுளின் தரவுத்தளங்களுடன் பொருத்துவதன் மூலம் CSAM ஐக் கண்டறிய பிற NGOக்கள், நிறுவனங்களும் பயன்படுத்தலாம். அடிப்படையில், ஒவ்வொரு முறையும் CSAM என அடையாளம் காணக்கூடிய ஒரு படத்தை கூகுள் கண்டறியும் போது, அதற்கு ஒரு ஹாஷ் அல்லது எண் மதிப்பு ஒதுக்கப்படும், பின்னர் அது ஏற்கனவே உள்ள தரவுத்தளத்திலிருந்து முந்தைய ஹாஷுடன் பொருத்தப்படும். இந்த ஹாஷ் மேட்சிங் தொழில்நுட்பத்தை கூகுள் மட்டும் பயன்படுத்தவில்லை. மைக்ரோசாப்ட், ஃபேஸ்புக், ஆப்பிள் போன்ற நிறுவனங்களும் இதே போன்ற நுட்பங்களைப் பயன்படுத்துகின்றன.
ஹாஷ் பொருத்தம் என்னவென்றால், நிறுவனம் CSAM ஐ சேமித்து வைக்கவில்லை, ஆனால் கேள்விக்குரிய படம், வீடியோ அல்லது உள்ளடக்கத்தைக் குறிக்கும் மதிப்பு அல்லது ஹாஷ் குறித்து வைக்கப்படுகிறது. மற்றொரு புகைப்படம் அல்லது வீடியோவிற்கு இதே போன்ற ஹாஷ் இருந்தால், அது CSAM ஆக இருக்கலாம், மேலும் கேள்விக்குரிய உள்ளடக்கம் சுட்டிக்காட்டப்படும்.
ஆனால் கூகுள் CSAM ஐத் தேடுவதற்கு இயந்திர கற்றல் கருவிகளையும் பயன்படுத்துகிறது, மேலும் இது 2018 இல் இதை முதன்முதலில் அறிவித்தது. இந்த "மெஷின் லேர்னிங் வகைப்படுத்திகள் இதுவரை கண்டிராத CSAM ஐக் கண்டறிய முடியும்" என்று குறிப்பிடுகிறது.
தொழில்நுட்பம் இயந்திர கற்றல் மற்றும் பட செயலாக்கத்திற்கான ஆழமான நரம்பியல் நெட்வொர்க்குகளை நம்பியுள்ளது. இங்குள்ள நன்மை என்னவென்றால், ஹாஷ் செய்யப்பட்ட தரவுத்தளத்தின் ஒரு பகுதியாக இல்லாத உள்ளடக்கத்தை நீங்கள் காணலாம். கூகுள் இந்த அறிவிப்பின் போது தன்னார்வ தொண்டு நிறுவனங்களுக்கும் அதன் தொழில் கூட்டாளர்களுக்கும் தொழில்நுட்பத்தை இலவசமாகக் கிடைக்கச் செய்தது. அதன் இயந்திர கற்றல் தொழில்நுட்பத்தின் மூலம் CSAM என அடையாளம் காணப்பட்ட உள்ளடக்கம் "எங்கள் சிறப்பு மதிப்பாய்வுக் குழுக்களால் உறுதிப்படுத்தப்பட்டது" என்றும் கூகுள் குறிப்பிடுகிறது.
புகாரளிக்கப்பட்ட நிகழ்வுகளில் CSAM ஐ அடையாளம் காண என்ன தொழில்நுட்பம் பயன்படுத்தப்பட்டது என்பது தெளிவாகத் தெரியவில்லை. இந்த AI தொழில்நுட்பத்தின் துல்லியத்தை கூகுள் வெளியிடவில்லை.
இந்த விஷயத்தில் கூகுளின் கொள்கை
கூகுளின் கொள்கைப் பக்கத்தில் தடைசெய்யப்பட்ட உள்ளடக்கத்தின் பட்டியலைக் குறிப்பிடுகிறது மற்றும் அதன் சேவைகளுக்கான அணுகலை இழக்கச் செய்யலாம். குழந்தைகள் ஆபாசத்தின் வரையறையைப் பொறுத்தவரை, கூகுள் அமெரிக்க அரசாங்கத்தால் அமைக்கப்பட்டுள்ள ஒன்றைப் பயன்படுத்துகிறது. எனவே, மைனர் (18 வயதுக்குட்பட்ட) பாலியல் ரீதியாக சுரண்டப்படும் எந்தப் படமும் குழந்தைகள் ஆபாசமாக வரையறுக்கப்படுகிறது.
இது CSAM இல் ஒரு விரிவான பகுதியைக் கொண்டுள்ளது மற்றும் பயனர்கள் "குழந்தைகளை சுரண்டும் அல்லது துஷ்பிரயோகம் செய்யும் உள்ளடக்கத்தை உருவாக்கவோ, பதிவேற்றவோ அல்லது விநியோகிக்கவோ கூடாது" என்றும், "இதில் அனைத்து குழந்தை பாலியல் துஷ்பிரயோகப் பொருட்களும் அடங்கும்" என்றும் தெளிவாகக் குறிப்பிடுகிறது. பயனர்கள் CSAM உள்ளடக்கத்தைப் பார்க்கும்போது முறைகேடுகளைப் புகாரளிக்கவும் இது ஊக்குவிக்கிறது.
இது அதன் தயாரிப்புகளை "குழந்தைகளுக்கு ஆபத்தில் ஆழ்த்துவதற்கு" பயன்படுத்துவதையும் தடை செய்கிறது. பாலின உள்ளடக்கத்திற்காக ‘குழந்தைகளை வளர்க்க’ கூகுள் தயாரிப்புகளைப் பயன்படுத்துவது, பாலியல் பலாத்காரம் (குழந்தையை மிரட்டுவது அல்லது அச்சுறுத்துவது), “மைனரைப் பாலியல்ரீதியாக்குவது”, “குழந்தையைக் கடத்துவது” போன்றவை தடைசெய்யப்பட்டுள்ளன என்று கொள்கை குறிப்பிடுகிறது.
"நிர்வாணம், கிராஃபிக் செக்ஸ் செயல்கள் மற்றும் ஆபாசப் பொருட்கள் போன்ற வெளிப்படையான பாலியல் உள்ளடக்கம் கொண்ட உள்ளடக்கத்தை பயனர்கள் விநியோகிக்கக் கூடாது" என்று கொள்கை தெளிவாகக் கூறுகிறது. வணிக ஆபாச தளங்களுக்கு பார்வை எண்ணிக்கையை அதிகரிப்பதும் இதில் அடங்கும்”. அதேநேரம் இது "கல்வி, ஆவணப்படம், அறிவியல் அல்லது கலை நோக்கங்களுக்காக நிர்வாணத்தை" அனுமதிக்கிறது.
அணுகலை மீட்டெடுப்பதில் தாமதம்
தற்போதைய விவாதம் இதுதான். CSAM ஒரு தீவிரமான பிரச்சனையாக இருந்தாலும், NYT அறிக்கை, அதை எதிர்த்துப் போராடுவது என்பது சிக்கலான நீர் வழி பயணத்தை குறிக்கிறது என்பதை எடுத்துக்காட்டுகிறது. பயனர் தனியுரிமையை சமநிலைப்படுத்துவது மற்றும் சிக்கலான உள்ளடக்கத்தை எதிர்த்துப் போராடுவது சொல்வதை விட எளிதானது.
இரு பெற்றோரின் நிகழ்வுகளிலும், அவர்கள் அப்பாவியாக படத்தை எடுத்தார்கள், இருவரும் அணுகலை இழந்தனர். இருவரையும் போலீசார் விடுவித்த நிலையில், கூகுள் அவர்களின் கணக்குகளை மீட்டெடுக்கவில்லை. பெற்றோருக்கு, இந்த வழக்கு கண்களைத் திறக்கும், அவர்கள் தங்கள் குழந்தைகள் அல்லது குழந்தைகளின் தற்செயலான நிர்வாண புகைப்படங்கள் அனைத்தையும் நீக்க வேண்டியிருக்கும்.
இன்றைய உலகில், பெற்றோர்களும், தாத்தா பாட்டிகளும் தங்கள் குழந்தையின் ஒவ்வொரு அசைவையும் பதிவுசெய்து ஆவணப்படுத்த வேண்டிய அவசியத்தை உணர்ந்தால், இன்னும் சில நிகழ்நேர தருணங்கள் பதிவு செய்யப்பட்டு மேகக்கணியில் பதிவேற்றம் செய்யப்படலாம். இவை பின்னர் CSAM எனக் குறிக்கப்படலாம். மேலும், மேகக்கணியில் நாம் எவ்வளவு சார்ந்து இருக்கிறோம் என்பதன் மூலம், ஒருவரின் கூகுள் கணக்கிற்கான அணுகலை இழப்பது என்பது புகைப்படங்கள், நினைவுகள், அஞ்சல்கள் போன்றவற்றுக்கான அணுகலை இழப்பதைக் குறிக்கிறது. ஒருவேளை மோசமானது நடந்தால், பயனர்கள் தங்கள் உள்ளடக்கத்தில் சிலவற்றை ஆஃப்லைனில் சேமிக்க வேண்டும் என்பதற்கான மற்றொரு நினைவூட்டலாக இது இருக்கலாம் மற்றும் அவர்களின் கணக்கு அணுகல் பறிக்கப்படலாம்.
தமிழ் இந்தியன் எக்ஸ்பிரஸின் அனைத்து செய்திகளையும் உடனுக்குடன் டெலிகிராம் ஆப்பில் பெற https://t.me/ietamil
Stay updated with the latest news headlines and all the latest Lifestyle news. Download Indian Express Tamil App - Android or iOS.