ஆப்பிள் இன்று அறிவித்துள்ளது என்ற துவக்கத்துடன் iOS 15 மற்றும் ஐபாட் 15 , அது ஸ்கேன் செய்ய ஆரம்பிக்கும் iCloud புகைப்படங்கள் U.S. இல் அறியப்பட்ட குழந்தை பாலியல் துஷ்பிரயோகப் பொருட்களை (CSAM) தேடுவதற்காக, கண்டுபிடிப்புகளை காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையத்திற்கு (NCMEC) புகாரளிக்க திட்டமிடப்பட்டுள்ளது.
ஆப்பிள் அதன் திட்டங்களை விவரிப்பதற்கு முன்னதாக, CSAM முன்முயற்சி பற்றிய செய்திகள் கசிந்தன, மேலும் பாதுகாப்பு ஆராய்ச்சியாளர்கள் ஏற்கனவே ஆப்பிள் நிறுவனத்தின் புதிய பட ஸ்கேனிங் நெறிமுறை எதிர்காலத்தில் எவ்வாறு பயன்படுத்தப்படலாம் என்பது குறித்து கவலைகளை வெளிப்படுத்தத் தொடங்கியுள்ளனர். பைனான்சியல் டைம்ஸ் .
அறியப்பட்ட CSAM படங்களை பயனரின் புகைப்படங்களுடன் ஒப்பிட்டுப் பார்க்க ஆப்பிள் 'NeuralHash' அமைப்பைப் பயன்படுத்துகிறது. ஐபோன் அவை iCloud இல் பதிவேற்றப்படும் முன் . ஏதேனும் பொருத்தம் இருந்தால், அந்த புகைப்படம் கிரிப்டோகிராஃபிக் பாதுகாப்பு வவுச்சருடன் பதிவேற்றப்படும், மேலும் ஒரு குறிப்பிட்ட வரம்பில், அந்த நபரின் சாதனங்களில் CSAM உள்ளதா என்பதைச் சரிபார்க்க மதிப்பாய்வு தூண்டப்படும்.
ஆப்பிள் இசையில் இசையை எவ்வாறு பகிர்வது
தற்போதைய நேரத்தில், ஆப்பிள் தனது படத்தை ஸ்கேன் செய்து பொருத்தும் தொழில்நுட்பத்தைப் பயன்படுத்தி குழந்தைகளைத் துன்புறுத்துவதைத் தேடுகிறது, ஆனால் எதிர்காலத்தில், அரசாங்கத்திற்கு எதிரான அறிகுறிகளைப் போன்ற பிற வகையான படங்களை ஸ்கேன் செய்ய இது மாற்றியமைக்கப்படலாம் என்று ஆராய்ச்சியாளர்கள் கவலைப்படுகிறார்கள். எதிர்ப்புகள்.
தொடர்ச்சியான ட்வீட்களில், ஜான்ஸ் ஹாப்கின்ஸ் கிரிப்டோகிராஃபி ஆராய்ச்சியாளர் மத்தேயு கிரீன் CSAM ஸ்கேனிங் ஒரு 'மிகவும் மோசமான யோசனை' என்று கூறினார், ஏனெனில் இது எதிர்காலத்தில், iCloudக்கு பதிவேற்றப்படும் உள்ளடக்கத்தை விட, என்ட்-டு-எண்ட் என்க்ரிப்ட் செய்யப்பட்ட புகைப்படங்களை ஸ்கேன் செய்வதற்கு விரிவடையும். குழந்தைகளுக்கு, ஆப்பிள் இருக்கிறது iMessages இல் நேரடியாக வெளிப்படையான பாலியல் உள்ளடக்கத்தை தேடும் ஒரு தனி ஸ்கேனிங் அம்சத்தை செயல்படுத்துகிறது, அவை இறுதி முதல் இறுதி வரை குறியாக்கம் செய்யப்பட்டுள்ளன.
CSAM உடன் ஹாஷைப் பகிரும் பாதிப்பில்லாத கோப்பை யாரோ ஒருவர் அனுப்பினால், அது தவறான கொடியை ஏற்படுத்தக்கூடிய 'மோதல்கள்' இருக்கக்கூடும் என்பதால் Apple பயன்படுத்தத் திட்டமிட்டுள்ள ஹாஷ்கள் குறித்தும் கிரீன் கவலை தெரிவித்தார்.
கணக்குகள் தவறாகக் கொடியிடப்படாமல் இருப்பதை உறுதிசெய்ய, அதன் ஸ்கேனிங் தொழில்நுட்பம் 'மிக உயர்ந்த அளவிலான துல்லியத்தைக்' கொண்டுள்ளது என்றும், அறிக்கைகள் ஒருவரின் iCloud கணக்கு முடக்கப்பட்டது மற்றும் ஒரு அறிக்கை NCMEC க்கு அனுப்பப்பட்டது.
ஆப்பிளின் செயலாக்கம் மற்ற தொழில்நுட்ப நிறுவனங்களையும் இதே போன்ற நுட்பங்களைப் பின்பற்றத் தள்ளும் என்று கிரீன் நம்புகிறார். இது அணையை உடைக்கும்' என்று எழுதினார். 'அரசுகள் எல்லோரிடமும் அதைக் கோரும்.' அவர் தொழில்நுட்பத்தை 'அடக்குமுறை ஆட்சிகள் பயன்படுத்திய கருவிகளுடன்' ஒப்பிட்டார்.
இவை மோசமான விஷயங்கள். நான் குறிப்பாக குழந்தைகளின் ஆபாசத்தின் பக்கத்தில் இருக்க விரும்பவில்லை மற்றும் நான் ஒரு பயங்கரவாதி அல்ல. ஆனால் சிக்கல் என்னவென்றால், குறியாக்கம் என்பது தனியுரிமையை வழங்கும் ஒரு சக்திவாய்ந்த கருவியாகும், மேலும் யாரேனும் அனுப்பும் ஒவ்வொரு படத்தையும் கண்காணிக்கும் போது நீங்கள் வலுவான தனியுரிமையைப் பெற முடியாது. — மேத்யூ கிரீன் (@matthew_d_green) ஆகஸ்ட் 5, 2021
முன்பு பேஸ்புக்கில் பணிபுரிந்த பாதுகாப்பு ஆய்வாளர் அலெக் முஃபெட், இந்த வகையான பட ஸ்கேனிங்கைச் செயல்படுத்த ஆப்பிள் எடுத்த முடிவு 'தனிநபர் தனியுரிமைக்கான மிகப்பெரிய மற்றும் பிற்போக்கு நடவடிக்கை' என்று கூறினார். 1984 ஐ செயல்படுத்த ஆப்பிள் தனியுரிமையை திரும்பப் பெறுகிறது,' என்று அவர் கூறினார்.
கேம்பிரிட்ஜ் பல்கலைக்கழகத்தின் பாதுகாப்பு பொறியியல் பேராசிரியர் ரோஸ் ஆண்டர்சன், இது ஒரு 'முற்றிலும் பயங்கரமான யோசனை' என்று கூறினார், இது சாதனங்களின் 'விநியோகிக்கப்பட்ட மொத்த கண்காணிப்புக்கு' வழிவகுக்கும்.
ட்விட்டரில் பலர் சுட்டிக்காட்டியுள்ளபடி, பல தொழில்நுட்ப நிறுவனங்கள் ஏற்கனவே CSAM க்கு படத்தை ஸ்கேன் செய்கின்றன. கூகுள், ட்விட்டர், மைக்ரோசாப்ட், ஃபேஸ்புக் மற்றும் பிறர் குழந்தை துஷ்பிரயோகம் பற்றிய அறியப்பட்ட படங்களைத் தேட மற்றும் புகாரளிக்க படத்தை ஹேஷிங் செய்யும் முறைகளைப் பயன்படுத்துகின்றனர்.
சிறுவர் துஷ்பிரயோகப் படங்களுக்கான படங்களை Google ஸ்கேன் செய்கிறதா என்று நீங்கள் யோசித்தால், எட்டு ஆண்டுகளுக்கு முன்பு நான் எழுதிய கதையில் நான் பதிலளித்தேன்: **2008 முதல் அதைச் செய்து வருகிறது**. அனைவரும் உட்கார்ந்து உங்கள் தொப்பிகளை மீண்டும் அணியலாம். pic.twitter.com/ruJ4Z8SceY - சார்லஸ் ஆர்தர் (@charlesarthur) ஆகஸ்ட் 5, 2021
ஆப்பிள் இருந்தது என்பதும் குறிப்பிடத்தக்கது ஏற்கனவே சில உள்ளடக்கத்தை ஸ்கேன் செய்கிறது புதிய CSAM முன்முயற்சியின் வெளியீட்டிற்கு முன் குழந்தை துஷ்பிரயோகப் படங்கள். 2020 ஆம் ஆண்டில், ஆப்பிள் தலைமை தனியுரிமை அதிகாரி ஜேன் ஹார்வத் கூறுகையில், ஆப்பிள் ஸ்கிரீனிங் தொழில்நுட்பத்தைப் பயன்படுத்தி சட்டவிரோத படங்களைத் தேடுகிறது, பின்னர் CSAM இன் சான்றுகள் கண்டறியப்பட்டால் கணக்குகளை முடக்குகிறது.
எந்த துரித உணவு இடங்கள் ஆப்பிள் ஊதியத்தை ஏற்கின்றன
2019 இல் ஆப்பிள் அதன் தனியுரிமைக் கொள்கைகளை மேம்படுத்தியது இது பதிவேற்றிய உள்ளடக்கத்தை 'சிறார் பாலியல் சுரண்டல் உள்ளடக்கம் உட்பட சட்ட விரோதமான உள்ளடக்கம்' உள்ளதா என ஸ்கேன் செய்யும், எனவே இன்றைய அறிவிப்புகள் முற்றிலும் புதியவை அல்ல.
குறிப்பு: இத்தலைப்பு தொடர்பான விவாதத்தின் அரசியல் அல்லது சமூக இயல்பு காரணமாக, விவாத நூல் நமது அரசியல் செய்திகள் மன்றம். அனைத்து மன்ற உறுப்பினர்களும் தள பார்வையாளர்களும் நூலைப் படித்துப் பின்தொடர வரவேற்கிறோம், ஆனால் இடுகையிடுவது குறைந்தது 100 இடுகைகளைக் கொண்ட மன்ற உறுப்பினர்களுக்கு மட்டுமே.
குறிச்சொற்கள்: ஆப்பிள் தனியுரிமை , ஆப்பிள் குழந்தை பாதுகாப்பு அம்சங்கள்
பிரபல பதிவுகள்