2 nhà nghiên cứu ở Đại học Princeton nói rằng họ đã làm ra công cụ tương tự như hệ thống quét ảnh khiêu dâm trẻ em (CSAM) mà Apple đang làm, và họ nhận ra một lỗ hổng đó là nó có thể bị lợi dụng để biến thành công cụ giám sát cho các chính phủ.
Jonathan Mayer, trợ lý giáo sư và nhà nghiên cứu Anunay Kulshrestha cho biết: “Chúng tôi có một bài báo được peer-reviewed nói về cách làm ra một hệ thống tương tự Apple - và chúng tôi kết luận rằng công nghệ này rất nguy hiểm”. Hai người họ phát triển một hệ thống dò tìm ảnh CSAM trong một dịch vụ online được mã hóa từ đầu đến cuối. Giống Apple, họ muốn làm sao vẫn phát hiện được ảnh CSAM trong khi cố gắng tôn trọng quyền riêng tư nhất có thể. “Chúng tôi lo lắng rằng các dịch vụ online sẽ ngại dùng mã hóa nếu không có công cụ nào để phòng chống CSAM”.
Hai nhà nghiên cứu đã dành nhiều năm cho ý tưởng của mình, và họ cũng đã tạo ra một nguyên mẫu chạy được. Tuy nhiên, “hệ thống của chúng tôi có thể được chuyển đổi mục đích để giám sát hoặc che giấu nội dung. Thiết kế của hệ thống này không dành riêng cho bất kì loại nội dung nào cả, một dịch vụ có thể đổi cơ sở dữ liệu dùng để đối chiếu sang một thứ khác không phải ảnh khiêu dâm trẻ em, là bạn đã có thể dùng nó để phát hiện các loại ảnh khác rồi”.
Những lo lắng này không chỉ nằm trên giấy, Mayer và Kulshrestha lấy ví dụ của WeChat, app chat này đã được Đại học Toronto phát hiện là sử dụng thuật toán để phát hiện hình ảnh, tài liệu bất đồng chính kiến. “Trung Quốc là thị trường lớn thứ 2 của Apple, với cả trăm triệu thiết bị. Điều gì sẽ ngăn chính phủ Trung Quốc yêu cầu Apple quét các nội dung này?" Mayer và Kulshrestha cũng nói rằng Apple từng nhiều lần làm theo yêu cầu của chính phủ Trung Quốc, ví dụ như lần mà Apple chuyển dữ liệu của người dùng Trung Quốc về lưu ở nội địa nước này.
“Chúng tôi còn phát hiện ra những hạn chế khác. Hệ thống này có thể phát hiện nhầm, và những người dùng độc hại có thể lợi dụng hệ thống để gài bẫy những người vô tội", hai nhà nghiên cứu cho hay.
Apple giải quyết những lo ngại này bằng cách chỉ áp dụng tính năng tìm kiếm ảnh CSAM ở Mỹ trong thời gian đầu ra mắt. Ngoài ra, chỉ khi nào ít nhất 30 tấm ảnh CSAM được upload lên iCloud thì nó mới cảnh báo tới nhân viên của Apple, dựa vào đây họ còn phải review lại thủ công trước khi chuyển thông tin cho các hội bảo vệ quyền trẻ em.
Mayer và Kulshrestha dự định sẽ trình bày hệ thống của họ tại một hội nghị học thuật, tuy nhiên chưa kịp làm thì Apple giới thiệu hệ thống phát hiện của họ 1 tuần trước đó. “Động lực của Apple giống chúng tôi, là để bảo vệ trẻ em. Hệ thống của họ hiệu quả hơn và mạnh mẽ hơn của chúng tôi. Tuy nhiên chúng tôi vẫn chưa thấy Apple trả lời như thế nào về những câu hỏi hoài nghi đang được mọi người đưa lên”.
Xem thêm: Cách hoạt động của hệ thống phát hiện ảnh khiêu dâm trẻ em của Apple
Nguồn: Engadget
Jonathan Mayer, trợ lý giáo sư và nhà nghiên cứu Anunay Kulshrestha cho biết: “Chúng tôi có một bài báo được peer-reviewed nói về cách làm ra một hệ thống tương tự Apple - và chúng tôi kết luận rằng công nghệ này rất nguy hiểm”. Hai người họ phát triển một hệ thống dò tìm ảnh CSAM trong một dịch vụ online được mã hóa từ đầu đến cuối. Giống Apple, họ muốn làm sao vẫn phát hiện được ảnh CSAM trong khi cố gắng tôn trọng quyền riêng tư nhất có thể. “Chúng tôi lo lắng rằng các dịch vụ online sẽ ngại dùng mã hóa nếu không có công cụ nào để phòng chống CSAM”.
Hai nhà nghiên cứu đã dành nhiều năm cho ý tưởng của mình, và họ cũng đã tạo ra một nguyên mẫu chạy được. Tuy nhiên, “hệ thống của chúng tôi có thể được chuyển đổi mục đích để giám sát hoặc che giấu nội dung. Thiết kế của hệ thống này không dành riêng cho bất kì loại nội dung nào cả, một dịch vụ có thể đổi cơ sở dữ liệu dùng để đối chiếu sang một thứ khác không phải ảnh khiêu dâm trẻ em, là bạn đã có thể dùng nó để phát hiện các loại ảnh khác rồi”.
Những lo lắng này không chỉ nằm trên giấy, Mayer và Kulshrestha lấy ví dụ của WeChat, app chat này đã được Đại học Toronto phát hiện là sử dụng thuật toán để phát hiện hình ảnh, tài liệu bất đồng chính kiến. “Trung Quốc là thị trường lớn thứ 2 của Apple, với cả trăm triệu thiết bị. Điều gì sẽ ngăn chính phủ Trung Quốc yêu cầu Apple quét các nội dung này?" Mayer và Kulshrestha cũng nói rằng Apple từng nhiều lần làm theo yêu cầu của chính phủ Trung Quốc, ví dụ như lần mà Apple chuyển dữ liệu của người dùng Trung Quốc về lưu ở nội địa nước này.
“Chúng tôi còn phát hiện ra những hạn chế khác. Hệ thống này có thể phát hiện nhầm, và những người dùng độc hại có thể lợi dụng hệ thống để gài bẫy những người vô tội", hai nhà nghiên cứu cho hay.
Apple giải quyết những lo ngại này bằng cách chỉ áp dụng tính năng tìm kiếm ảnh CSAM ở Mỹ trong thời gian đầu ra mắt. Ngoài ra, chỉ khi nào ít nhất 30 tấm ảnh CSAM được upload lên iCloud thì nó mới cảnh báo tới nhân viên của Apple, dựa vào đây họ còn phải review lại thủ công trước khi chuyển thông tin cho các hội bảo vệ quyền trẻ em.
Mayer và Kulshrestha dự định sẽ trình bày hệ thống của họ tại một hội nghị học thuật, tuy nhiên chưa kịp làm thì Apple giới thiệu hệ thống phát hiện của họ 1 tuần trước đó. “Động lực của Apple giống chúng tôi, là để bảo vệ trẻ em. Hệ thống của họ hiệu quả hơn và mạnh mẽ hơn của chúng tôi. Tuy nhiên chúng tôi vẫn chưa thấy Apple trả lời như thế nào về những câu hỏi hoài nghi đang được mọi người đưa lên”.
Xem thêm: Cách hoạt động của hệ thống phát hiện ảnh khiêu dâm trẻ em của Apple
Nguồn: Engadget