(ChinaZ.com)9月6日 消息:蘋果公司近日宣布,在收到負面反饋后,該公司決定推遲了上個月宣布的兒童安全功能CSAM的發布時間。
蘋果公司推出的這項計劃,包括掃描用戶的iCloud照片庫以查找兒童性虐待材料 (CSAM)、青少年兒童用戶在接收或發送色情照片時警告兒童及其父母,以及在Siri和搜索中擴展CSAM指南。
蘋果證實,客戶、非營利組織和倡導團體、研究人員和其他人對這些計劃的反饋促使公司推遲了進行改進的時間。蘋果公司就其決定發表了以下聲明:
上個月,我們宣布了一些功能計劃,旨在幫助保護兒童免受使用通信工具招募和剝削他們的掠奪者的侵害,并限制兒童性虐待材料的傳播。根據客戶、倡導團體、研究人員和其他人的反饋,我們決定在未來幾個月內花更多時間收集意見并進行改進,然后再發布這些至關重要的兒童安全功能。
在他們宣布后,這些功能受到了大量的個人和組織的批評,包括安全研究人員、電子前沿基金會(EFF)、Facebook前安全主管、美國政治家、政策團體、大學研究人員,甚至一些蘋果員工。此后,蘋果一直通過發布詳細信息、共享常見問題解答、各種新文檔、公司高管訪談等方式努力消除誤解并讓用戶放心。
兒童安全功能套件最初計劃在美國首次亮相,計劃在iOS15、iPadOS15、watchOS8和macOS Monterey上率先使用。目前尚不清楚蘋果計劃何時推出這一功能,但該公司似乎仍打算發布這些功能。