ஆப்பிள் செய்திகள்

ஆப்பிள் CSAM கண்டறிதல் கவலைகளை நிவர்த்தி செய்கிறது, ஒவ்வொரு நாட்டிற்கும் அடிப்படையில் விரிவடையும் அமைப்பைக் கருத்தில் கொள்ளும்

வெள்ளிக்கிழமை ஆகஸ்ட் 6, 2021 11:25 am PDT by Joe Rossignol

ஆப்பிள் இந்த வாரம் அறிவித்தது, இந்த ஆண்டின் பிற்பகுதியில் iOS 15 மற்றும் iPadOS 15 உடன் தொடங்குகிறது iCloud புகைப்படங்களில் சேமிக்கப்பட்ட குழந்தை பாலியல் துஷ்பிரயோகப் பொருள் (CSAM) படங்களைக் கண்டறிய முடியும் , அமெரிக்கா முழுவதும் உள்ள சட்ட அமலாக்க நிறுவனங்களுடன் இணைந்து செயல்படும் ஒரு இலாப நோக்கற்ற அமைப்பான காணாமல் போன மற்றும் சுரண்டப்பட்ட குழந்தைகளுக்கான தேசிய மையத்திற்கு இந்த நிகழ்வுகளைப் புகாரளிக்க Apple ஐ அனுமதிக்கிறது.





ஆப்பிள் csam ஓட்ட விளக்கப்படம்
திட்டங்கள் உள்ளன சில பாதுகாப்பு ஆய்வாளர்கள் மத்தியில் கவலையைத் தூண்டியது மற்றும் அரசியல் செயல்பாடுகளை அடக்குவது போன்ற தீய நோக்கங்களுக்காக, CSAM அல்லாத படங்களை ஹாஷ் பட்டியலில் சேர்க்குமாறு Apple நிறுவனத்தால் இறுதியில் கட்டாயப்படுத்தப்படலாம்.

'எவ்வளவு நல்ல நோக்கத்துடன் இருந்தாலும், ஆப்பிள் உலகம் முழுவதும் வெகுஜன கண்காணிப்பை விரிவுபடுத்துகிறது,' கூறினார் பிரபல விசில்ப்ளோவர் எட்வர்ட் ஸ்னோவ்டென், 'இன்று குழந்தைகளின் ஆபாசத்தை ஸ்கேன் செய்ய முடிந்தால், நாளை எதையும் ஸ்கேன் செய்யலாம்' என்று கூறினார். இலாப நோக்கற்ற எலக்ட்ரானிக் ஃபிரான்டியர் அறக்கட்டளை ஆப்பிளின் திட்டங்களையும் விமர்சித்தார் , 'முழுமையாக ஆவணப்படுத்தப்பட்ட, கவனமாக சிந்திக்கப்பட்ட மற்றும் குறுகிய நோக்கமுள்ள பின்கதவு கூட இன்னும் பின்கதவாகவே உள்ளது.'



இந்த கவலைகளை நிவர்த்தி செய்ய, ஆப்பிள் இன்று அதன் திட்டங்களைப் பற்றி கூடுதல் வர்ணனையை வழங்கியது.

ஆப்பிளின் அறியப்பட்ட CSAM கண்டறிதல் அமைப்பு அமெரிக்காவில் தொடங்கும் போது மட்டுப்படுத்தப்படும், மேலும் சில அரசாங்கங்கள் இந்த அமைப்பை துஷ்பிரயோகம் செய்ய முயற்சிப்பதற்கான சாத்தியக்கூறுகளை நிவர்த்தி செய்ய, Apple நிறுவனம் Eternal க்கு உறுதியளித்தது. சட்ட மதிப்பீட்டை நடத்திய பிறகு நாடு வாரியாக. அத்தகைய நடவடிக்கை எப்போதாவது நடந்தால், கணினியின் உலகளாவிய விரிவாக்கத்திற்கான காலக்கெடுவை ஆப்பிள் வழங்கவில்லை.

கணினியை துஷ்பிரயோகம் செய்யும் முயற்சியில் உலகில் ஒரு குறிப்பிட்ட பிராந்தியம் ஒரு பாதுகாப்பு நிறுவனத்தை சிதைக்க முடிவெடுப்பதற்கான கற்பனையான சாத்தியக்கூறுகளையும் ஆப்பிள் நிவர்த்தி செய்தது, ஒரு பயனர் பொருத்தமற்ற படங்கள் இருப்பதாகக் கொடியிடப்படுவதற்கு முன்பு கணினியின் முதல் அடுக்கு பாதுகாப்பு வெளிப்படுத்தப்படாத வரம்பு என்று குறிப்பிட்டது. வரம்பு மீறப்பட்டாலும், ஆப்பிள் அதன் கைமுறை மதிப்பாய்வு செயல்முறை கூடுதல் தடையாக செயல்படும் மற்றும் அறியப்பட்ட CSAM படங்கள் இல்லாததை உறுதிப்படுத்துகிறது. கொடியிடப்பட்ட பயனரை இறுதியில் NCMEC அல்லது சட்ட அமலாக்க நிறுவனங்களுக்குப் புகாரளிக்காது என்றும் இந்த அமைப்பு இன்னும் சரியாக வடிவமைக்கப்பட்டுள்ளது என்றும் ஆப்பிள் கூறியது.

மேக்கில் கிளிப்போர்டில் இருந்து ஒட்டுவது எப்படி

குழந்தை துஷ்பிரயோகத்தை எதிர்த்துப் போராடுவதற்கான அதன் முயற்சிகளுக்காக சில தரப்பினர் நிறுவனத்தைப் பாராட்டியதோடு, இந்த அமைப்பின் சில ஆதரவாளர்களையும் ஆப்பிள் முன்னிலைப்படுத்தியது.

'குழந்தைகள் ஆன்லைன் பாதுகாப்பிற்கான ஆப்பிள் அணுகுமுறையின் தொடர்ச்சியான பரிணாம வளர்ச்சியை நாங்கள் ஆதரிக்கிறோம்,' என்று குடும்ப ஆன்லைன் பாதுகாப்பு நிறுவனத்தின் தலைமை நிர்வாக அதிகாரி ஸ்டீபன் பால்கம் கூறினார். 'ஆன்லைனில் தங்கள் குழந்தைகளைப் பாதுகாப்பதில் பெற்றோர்கள் எதிர்கொள்ளும் சவால்களைக் கருத்தில் கொண்டு, தொழில்நுட்ப நிறுவனங்கள் புதிய ஆபத்துகள் மற்றும் உண்மையான தீங்குகளுக்குப் பதிலளிப்பதற்குத் தங்கள் பாதுகாப்புக் கருவிகளைத் தொடர்ந்து செயல்படுத்துவதும் மேம்படுத்துவதும் அவசியம்.'

சில்வர் புல்லட் பதில் இல்லை என்று ஆப்பிள் ஒப்புக்கொண்டது, ஏனெனில் இது கணினி தவறாகப் பயன்படுத்தப்படுவதற்கான சாத்தியக்கூறுகளுடன் தொடர்புடையது, ஆனால் அறியப்பட்ட CSAM இமேஜரி கண்டறிதலுக்கு மட்டுமே கணினியைப் பயன்படுத்துவதில் உறுதியாக இருப்பதாக நிறுவனம் கூறியது.

குறிப்பு: இத்தலைப்பு தொடர்பான விவாதத்தின் அரசியல் அல்லது சமூக இயல்பு காரணமாக, விவாத நூல் நமது அரசியல் செய்திகள் மன்றம். அனைத்து மன்ற உறுப்பினர்களும் தள பார்வையாளர்களும் நூலைப் படித்துப் பின்தொடர வரவேற்கிறோம், ஆனால் இடுகையிடுவது குறைந்தது 100 இடுகைகளைக் கொண்ட மன்ற உறுப்பினர்களுக்கு மட்டுமே.