Tech

แนวคิดที่เฉียบแหลมของ Apple สำหรับการสแกน CSAM สามารถเริ่มการกดขี่ข่มเหงได้ทั่วโลก

กลุ่มสิทธิมนุษยชนมากกว่าเก้าสิบกลุ่มจากทั่วโลกได้ลงนามในจดหมายประณามแผนการของ Apple ในการสแกนอุปกรณ์เพื่อหาสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) และเตือน Cupertino อาจนำไปสู่การ “เซ็นเซอร์ การเฝ้าระวัง และการประหัตประหาร บนพื้นฐานระดับโลก”

ศูนย์ประชาธิปไตยและเทคโนโลยีในสหรัฐฯ ได้จัดทำจดหมายเปิดผนึก ซึ่งเรียกร้องให้ Apple ละทิ้ง แนวทาง เพื่อการสแกนจำนวนมาก ผู้ลงนามรวมถึง Liberty และ Big Brother Watch ในสหราชอาณาจักร Tor Project และ Privacy International

จดหมายดังกล่าวทำให้เกิดความกังวลเกี่ยวกับความถูกต้องของเทคโนโลยีของ Apple โดยอ้างว่าอัลกอริธึมประเภทนี้ “มีแนวโน้ม” เพื่อทำเครื่องหมายศิลปะ ข้อมูลด้านสุขภาพ แหล่งข้อมูลด้านการศึกษา ข้อความสนับสนุน และภาพอื่นๆ อย่างผิดพลาด” แล้วก็มีผลที่ตามมาของรัฐบาลที่เข้าไปเกี่ยวข้อง

“เมื่อความสามารถนี้ถูกสร้างขึ้นในผลิตภัณฑ์ของ Apple แล้ว บริษัทและคู่แข่งจะต้องเผชิญกับแรงกดดันมหาศาล – และข้อกำหนดทางกฎหมายที่อาจเกิดขึ้น – จากรัฐบาลรอบๆ ให้โลกสแกนภาพถ่าย ไม่ใช่แค่เพื่อ CSAM แต่ยังรวมถึงภาพอื่นๆ ที่รัฐบาลเห็นว่าไม่เหมาะสม” จดหมายระบุ

“ภาพเหล่านั้นอาจเป็นการละเมิดสิทธิมนุษยชน การประท้วงทางการเมือง รูปภาพ บริษัทต่างๆ ได้ติดแท็กว่าเป็น ‘ผู้ก่อการร้าย’ หรือเนื้อหาหัวรุนแรงสุดโต่ง หรือแม้แต่ภาพนักการเมืองที่ไม่ประจบประแจงที่จะกดดันบริษัทให้สแกนหาภาพเหล่านั้น ความกดดันดังกล่าวอาจขยายไปถึงรูปภาพทั้งหมดที่จัดเก็บไว้ในอุปกรณ์ ไม่ใช่เฉพาะภาพที่อัปโหลดไปยัง iCloud ดังนั้น , Apple จะวางรากฐานสำหรับการเซ็นเซอร์ การเฝ้าระวัง และการกดขี่ข่มเหงในระดับโลก”

Apple ไม่ได้มีส่วนร่วมกับโลกของ infosec ในการสแกน CSAM ดังนั้นทำความคุ้นเคยกับการเปิดเผยข้อมูลหยดช้าๆ Apple กล่าวว่ารหัสการสแกน CSAM สามารถตรวจสอบได้โดยนักวิจัย คอเรลเลียมเริ่มขว้างธนบัตรดอลลาร์ Apple ตอบโต้นักวิจารณ์เกี่ยวกับแผนการสแกน CSAM ด้วยคำถามที่พบบ่อย โดยระบุว่าจะบล็อกรัฐบาลที่ล้มล้างระบบ

  • ภาพคอมพิวเตอร์ iPhone ของ Apple มีศักยภาพที่จะรักษาความเป็นส่วนตัว แต่ยังทำลายมันอย่างสมบูรณ์
  • ประกาศเมื่อสองสัปดาห์ก่อน เทคโนโลยีการตรวจสอบ CSAM ของ Apple จะค้นหาภาพที่อัปโหลดจาก iPhone และ iPad ไปยัง การสำรองข้อมูล iCloud; กล่าวอีกนัยหนึ่งส่วนใหญ่ของพวกเขา ถูกเรียกเก็บเงินในฐานะ ความคิดริเริ่มด้านความปลอดภัยสำหรับเด็ก เทคโนโลยีการสแกนจำนวนมากทำให้เกิดความโกรธแค้นทันทีจากผู้สนับสนุนด้านสิทธิพลเมือง

    A อย่างใกล้ชิด ผลิตภัณฑ์ที่เกี่ยวข้องซึ่งเปิดตัวไปพร้อม ๆ กันเรียกว่า “สแกนและแจ้งเตือน” จะทำให้ผู้ปกครองไม่พอใจหาก iThings ของบุตรหลานได้รับข้อความที่ถือว่าชัดเจนโดยอัลกอริธึมการเรียนรู้ด้วยเครื่องบนอุปกรณ์ CDT กล่าว ในแถลงการณ์ว่า: “คุณลักษณะการสแกนและการแจ้งเตือนในข้อความอาจส่งผลให้เกิดการแจ้งเตือนที่คุกคามความปลอดภัยและ ความเป็นอยู่ที่ดีของคนหนุ่มสาวบางคน และเยาวชน LGBTQ+ ที่มีพ่อแม่ที่ไม่เห็นอกเห็นใจมีความเสี่ยงเป็นพิเศษ”

    ระบบตรวจจับ CSAM ทำงานโดยจับคู่แฮชของการอัปโหลด iCloud กับฐานข้อมูลลับที่ควบคุมโดย Apple ซึ่ง กล่าวกันว่ามีประชากรอาศัยอยู่โดยศูนย์เด็กหายและแสวงหาประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ซึ่งเป็นหน่วยตำรวจที่เทียบเท่ากับหน่วยตำรวจการแสวงหาประโยชน์จากเด็กและการคุ้มครองทางออนไลน์ของอังกฤษ (CEOP) ของอเมริกาในอเมริกา เมื่อแฮชถูกจับคู่แล้ว Apple กล่าวว่าผู้ดูแลที่เป็นมนุษย์จะตรวจสอบภาพก่อนที่จะส่งต่อให้ตำรวจ

    นักวิจารณ์กล่าวว่าระบบจับคู่แฮชนั้นสุกงอมแล้วสำหรับการละเมิดโดยรัฐบาลเผด็จการที่ต้องการปราบปราม ผู้คัดค้านทางการเมืองแบ่งปันคำพูดต้องห้าม Apple บอกว่า “จะปฏิเสธข้อเรียกร้องใดๆ” เมื่อเติมเชื้อเพลิงลงในเปลวไฟ NCMEC ได้ส่งบันทึกถึง Apple ซึ่งแจกจ่ายให้กับพนักงานและรั่วไหลในเวลาต่อมา โดยบอกวิศวกรของ iGiant ว่าไม่ต้องกังวลกับคำวิจารณ์ของเทคโนโลยีการสแกน โดยอธิบายว่าเป็น “เสียงกรีดร้องของชนกลุ่มน้อย”

    ตอนนี้ infosec bods คือ
    reverse-engineering เทคโนโลยีเพื่อดูว่ามันทำงานอย่างไร . หากสามารถแสดงให้เห็นได้ว่าอัลกอริธึมการจับคู่ภาพสามารถหลอกให้ตั้งค่าสถานะภาพที่ไร้เดียงสาทั้งหมดได้ เช่น ผ่านการชนกันของแฮช จะทำให้เทคโนโลยีการสแกนเนื้อหามีการใช้งานที่จำกัดตามวัตถุประสงค์ที่ระบุไว้ ®

    Back to top button