Apple đã tiếp thị mình là một trong những công ty công nghệ xuất sắc chống lại những người thích Facebook và Google vì bảo vệ quyền riêng tư của người dùng. Tuy nhiên, gần đây, gã khổng lồ Cupertino đã bị bao vây bởi những người đam mê quyền riêng tư thách thức các tính năng ngăn chặn CSAM của Apple.

Trước đây, Apple từng mắc kẹt trong sự cố NSO. Người ta phát hiện ra rằng việc cài đặt phần mềm gián điệp trong iPhone dễ dàng hơn so với Android.

Gần đây hơn, các tính năng mới của Apple nhằm hạn chế việc lưu hành Tài liệu lạm dụng tình dục trẻ em (CSAM) đã khiến công ty rơi vào một cuộc tranh cãi. Các nhà phê bình cáo buộc Apple đã nghĩ ra một phương pháp có khả năng phá hoại quyền riêng tư của hàng triệu người.

Trong khi những nỗ lực để hạn chế CSAM là đáng hoan nghênh, tuy nhiên, việc thực hiện nó mới là điều khiến người ta phải kinh ngạc.

Các tính năng bảo vệ an toàn cho trẻ em mới của Apple là gì?

Hôm thứ Hai, Apple đã tăng cường nỗ lực ngăn chặn việc lưu hành CSAM trên các nền tảng của mình. Công ty giới thiệu ba tính năng mới sẽ có sẵn với iOS 15.

  • Đầu tiên, Apple đang bổ sung các tài nguyên mới cho tính năng tìm kiếm Siri và Spotlight để giúp người dùng khám phá câu trả lời cho các truy vấn liên quan đến CSAM. Tính năng này hoàn toàn vô hại và không thay đổi bất kỳ điều gì về quyền riêng tư.
  • Thứ hai, Apple thay đổi ứng dụng Tin nhắn của mình bằng cách thêm tùy chọn kiểm soát của phụ huynh sẽ quét ảnh đã nhận và đã gửi trong tin nhắn để tìm nội dung khiêu dâm cho người dùng dưới 18 tuổi. Nếu bị phát hiện, nó sẽ làm mờ ảnh được đề cập và hiển thị thông báo cảnh báo cùng với.
Nguồn: Apple
  • Tính năng cuối cùng và gây tranh cãi nhất là quét thư viện Ảnh iCloud để tìm CSAM tiềm năng.

Tính năng CSAM sẽ hoạt động như thế nào?

Nếu người dùng dưới 12 tuổi cố gắng xem nội dung bị gắn cờ, thông báo sẽ được gửi đến cha mẹ của họ. Đáng chú ý, Apple sẽ quét ảnh trên thiết bị để không biết về nội dung.

Ngoài ra, tính năng nhận thông báo nếu trẻ em truy cập nội dung nhạy cảm là tùy chọn.

Hơn nữa, Apple sẽ thêm tính năng quét cục bộ thư viện Ảnh iCloud của bạn để tìm nội dung khiêu dâm và đối sánh nó với dữ liệu CSAM do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) cung cấp. Nếu một kết quả phù hợp được tìm thấy, nó sẽ tạo ra một safety voucher và tải nó lên iCloud.

Khi số lượng các phiếu an toàn này đạt đến giới hạn ngưỡng không được tiết lộ, người kiểm duyệt của Apple có thể giải mã các bức ảnh và quét chúng để tìm sự hiện diện của CSAM. Nếu bị phát hiện, Apple có thể báo cáo tài khoản đó với các cơ quan pháp luật.

Apple nói gì?

Trong khi toàn bộ scanning through iCloud Photo Library Nghe có vẻ như một bước đi táo bạo và xâm lấn, Apple đã nhấn mạnh rằng tính năng này sẽ không ảnh hưởng đến quyền riêng tư của người dùng. Nó sẽ đặc biệt quét ảnh được tải lên iCloud của bạn thông qua NeuralHash.

Nó là một công cụ chỉ định một mã nhận dạng duy nhất cho mỗi bức ảnh, do đó làm mờ nội dung của các bức ảnh, ngay cả đối với Apple. Công ty đã nhấn mạnh rằng người dùng có thể vô hiệu hóa tính năng đồng bộ hóa với iCloud để dừng bất kỳ loại quét nào.

Hơn nữa, Apple blog chính thức nói,

Messages sử dụng công nghệ máy học trên thiết bị để phân tích các tệp đính kèm hình ảnh và xác định xem một bức ảnh có khiêu dâm hay không. Tính năng này được thiết kế để Apple không có quyền truy cập vào các tin nhắn.

Vì vậy, tại sao hullabaloo ?: Phía nhà phê bình của câu chuyện

Apple liên tục nhấn mạnh rằng các tính năng này được xây dựng với mục đích bảo vệ quyền riêng tư nhằm bảo vệ trẻ em khỏi những kẻ săn mồi tình dục, nhưng các nhà phê bình không đồng ý. Trong khi tính năng tin nhắn thực hiện chức năng quét trên thiết bị, Apple vốn dĩ đang tạo ra một hệ thống theo dõi có thể gây ra hậu quả tai hại.

Kendra Albert từ Phòng khám Harvard Cyberlaw tranh luận điều đó:

Này child protection các tính năng có thể tỏ ra tốn kém đối với những người truy vấn có cha mẹ không chấp nhận. Họ có thể bị đánh đập và đuổi ra khỏi nhà. Cô ấy nói, chẳng hạn, một đứa trẻ đồng tính gửi ảnh chuyển cảnh của chúng cho bạn bè có thể bị tính năng mới gắn cờ.

Hãy tưởng tượng những tác động mà hệ thống này có thể gây ra ở những quốc gia mà đồng tính luyến ái chưa được hợp pháp hóa. Các chính phủ độc tài có thể yêu cầu Apple thêm nội dung LGBTQ + vào danh sách cơ sở dữ liệu đã biết của mình. Sự vặn vẹo cánh tay này của các cơ quan công nghệ không phải là điều mà chúng ta chưa từng thấy trước đây.

Mặc dù, Apple có một thành tích khá tốt trước những yêu cầu như vậy. Ví dụ, nó chắc chắn bị từ chối yêu cầu của FBI để giải mã dữ liệu từ iPhone của một kẻ bắn súng hàng loạt vào năm 2016.

Tuy nhiên, ở các quốc gia như Trung Quốc, nơi Apple lưu trữ dữ liệu iCloud tại địa phương, điều này có thể khiến Apple phải đáp ứng nhu cầu của họ. Do đó, gây nguy hiểm cho quyền riêng tư của người dùng hoàn toàn.

Tổ chức Biên giới Điện tử nói điều đó:

Những nỗ lực của Apple là một fully built system just waiting for external pressure to make the slightest change.

Tính năng cuối cùng thậm chí còn quan trọng hơn từ POV về quyền riêng tư. Quét ảnh iCloud rõ ràng là vi phạm quyền riêng tư của người dùng. Với điều này, iPhone của bạn giờ đây sẽ có một tính năng có thể quét ảnh của bạn và đối sánh chúng với một tập hợp các nội dung khiêu dâm và bất hợp pháp.

Tất cả điều này trong khi bạn chỉ muốn tải ảnh của mình lên bộ nhớ đám mây!

Quá khứ so với hiện tại của Apple: Mối lo ngại gia tăng

Khi Apple thách thức FBI và từ chối mở khóa iPhone của một kẻ giết người hàng loạt, công ty nổi tiếng đã nói: Your device is yours. It doesn’t belong to us.

Có vẻ như thiết bị này thuộc về Apple vì bạn không có bất kỳ quyền kiểm soát nào đối với việc ai đang xem nội dung trên thiết bị của bạn.

Người dùng có thể tranh luận rằng những bức ảnh được nhấp vào của họ thuộc về họ và Apple không có quyền quét chúng. Theo tôi, nó sẽ là không thể thương lượng đối với nhiều người.

MSNBC đã so sánh tính năng quét ảnh iCloud của Apple với phần mềm pegasus của NSO để cung cấp cho bạn ý tưởng về hệ thống giám sát được xây dựng trên danh nghĩa greater good. Báo cáo cho biết,

Hãy nghĩ đến khả năng của phần mềm gián điệp mà NSO Group, một công ty của Israel, cung cấp cho các chính phủ được cho là để theo dõi những kẻ khủng bố và tội phạm, mà một số quốc gia sau đó đã sử dụng để theo dõi các nhà hoạt động và nhà báo. Bây giờ hãy tưởng tượng những khả năng tương tự được mã hóa cứng vào mọi iPhone và máy tính Mac trên máy bay.

Không khó để hình dung những tác động bất lợi của việc Apple triển khai tính năng này.

Apple muốn bạn tin tưởng vào nó!

Kể từ khi công ty công bố các tính năng này, những người đam mê quyền riêng tư đã phản đối quyết liệt. Để đáp lại, Apple đã phát hành một tệp PDF với Câu hỏi thường gặp về các sáng kiến ​​ngăn chặn CSAM của mình.

Trong tài liệu, Apple đề cập rằng họ sẽ từ chối bất kỳ yêu cầu nào từ các cơ quan chính phủ về việc thêm hình ảnh không phải CSAM vào danh sách băm của mình. Các PDF nói:

Trước đây, chúng tôi đã phải đối mặt với các yêu cầu xây dựng và triển khai các thay đổi do chính phủ ủy quyền làm suy giảm quyền riêng tư của người dùng và đã kiên quyết từ chối những yêu cầu đó. Chúng tôi sẽ tiếp tục từ chối họ trong tương lai.

Trong một cuộc phỏng vấn với Techcrunch, Erik Neuenschwander, người đứng đầu quyền riêng tư của Apple đã cố gắng giải quyết những lo ngại xung quanh các tính năng này.

Anh ấy nói, The device is still encrypted, we still don’t hold the key, and the system is designed to function on on-device data. What we’ve designed has a device-side component — and it has the device-side component by the way, for privacy improvements. The alternative of just processing by going through and trying to evaluate users data on a server is actually more amenable to changes [without user knowledge], and less protective of user privacy.

Có vẻ như Apple muốn bạn tin tưởng vào nội dung riêng tư trên điện thoại của bạn. Nhưng ai biết được khi nào công ty bật lại những lời hứa này.

Sự tồn tại của một hệ thống theo dõi nội dung mà bạn sở hữu duy nhất trước khi nó được mã hóa đang mở ra một thùng sâu. Một khi họ đã đưa ra sự đồng ý và đã thiết lập một hệ thống, sẽ rất khó để hạn chế nó.

Lợi ích có làm lu mờ rủi ro đối với các tính năng an toàn cho trẻ em mới của Apple không?

Mặc dù những nỗ lực của Apple là rất tốt để chống lạm dụng tình dục trẻ em, nhưng đó không thể là cái cớ để bạn để mắt đến dữ liệu của mình. Sự tồn tại của một hệ thống giám sát tạo ra khả năng có một cửa hậu bảo mật.

Tôi tin rằng minh bạch là chìa khóa để Apple đạt được điểm trung bình. Sự can dự nào đó của pháp luật cũng có thể giúp công ty tin tưởng vào kế hoạch phá vỡ CSAM trên internet.

Tuy nhiên, việc giới thiệu hệ thống này đánh bại toàn bộ mục đích của mã hóa. Công ty có thể bắt đầu một làn sóng thử nghiệm có khả năng gây tử vong cho quyền riêng tư trong tương lai.

Quan trọng hơn, nó bắt đầu từ Apple, công ty cuối cùng mà mọi người đều mong đợi điều này. Đúng là bạn chết một anh hùng hoặc bạn sống đủ lâu để thấy mình trở thành kẻ phản diện.

Đọc các bài xã luận khác: