【ITBEAR科技資訊】9月1日消息,蘋(píng)果公司宣布取消了去年12月提出的iCloud云服務(wù)中的兒童性虐待材料(CSAM)檢測(cè)計(jì)劃,這一決定是在媒體、非營(yíng)利機(jī)構(gòu)和消費(fèi)者的廣泛反對(duì)聲中做出的。
該檢測(cè)計(jì)劃于2021年8月首次測(cè)試,旨在檢測(cè)存儲(chǔ)在iCloud中的CSAM圖像資料,但自發(fā)布以來(lái)引發(fā)了激烈爭(zhēng)議。最初,蘋(píng)果公司表示CSAM檢測(cè)功能將在iOS15和iPadOS15的更新中實(shí)施,但由于客戶、宣傳團(tuán)體、研究人員以及其他方面的反饋,該公司最終推遲了這一計(jì)劃的實(shí)施。
據(jù)ITBEAR科技資訊了解,一家名為Heat Initiative的兒童安全組織本周發(fā)起了一項(xiàng)活動(dòng),要求蘋(píng)果公司從iCloud中檢測(cè)、報(bào)告和刪除CSAM,并提供更豐富的工具,讓用戶能夠向蘋(píng)果公司報(bào)告CSAM內(nèi)容。對(duì)此,蘋(píng)果公司用戶隱私和兒童安全總監(jiān)Erik Neuenschwander罕見(jiàn)地回應(yīng)了Heat Initiative,解釋了放棄開(kāi)發(fā)iCloud CSAM掃描功能的原因。
他表示:“兒童性虐待材料是令人憎惡的,我們致力于打破使兒童易受其影響的脅迫和影響鏈。然而,掃描每個(gè)用戶私人存儲(chǔ)的iCloud數(shù)據(jù),會(huì)成為數(shù)據(jù)竊賊發(fā)現(xiàn)和利用創(chuàng)造新的威脅載體。而且這種方式可能會(huì)導(dǎo)致很多預(yù)期之外的嚴(yán)重后果,例如掃描一種類(lèi)型的內(nèi)容為批量監(jiān)控打開(kāi)了大門(mén),并可能產(chǎn)生跨內(nèi)容類(lèi)型搜索其他加密消息傳遞系統(tǒng)的愿望。”
在關(guān)閉CSAM檢測(cè)計(jì)劃時(shí),蘋(píng)果公司表示,他們將繼續(xù)投資于兒童保護(hù)舉措,并強(qiáng)調(diào)兒童可以在沒(méi)有公司梳理個(gè)人數(shù)據(jù)的情況下得到保護(hù),同時(shí)承諾繼續(xù)與政府、兒童倡導(dǎo)者和其他公司合作,以維護(hù)兒童的隱私權(quán),努力使互聯(lián)網(wǎng)成為兒童和所有人更加安全的地方。這一決策的公開(kāi)回應(yīng)表明蘋(píng)果公司正在積極關(guān)注用戶隱私和安全問(wèn)題,并考慮了各方的關(guān)切。