扫码关注我们
苹果CSAM扫描算法不安全,易“上当受骗”

来自伦敦帝国理工学院的一个研究小组提出了一种新的算法,它可以在不改变图像内容的情况下轻松欺骗图像扫描算法,使人眼看起来相同的图像在算法看来不同。这包括苹果的CSAM扫描算法。

什么是CSAM扫描算法?

CSAM(儿童性虐待素材)是苹果公司今年早些时候推出的一项旨在阻止非法图片传播的提案。苹果开发了一种算法,可以对用户私下分享并保存在iCloud中的照片进行哈希和比较。一旦它与第三方CSAM数据库中的照片相匹配,苹果将选择屏蔽照片,甚至报警。

在遭到用户和媒体的强烈反对后,该提议在9月份被撤回,因为未经授权访问用户的照片严重侵犯了他们的隐私。苹果并没有放弃CSAM,而是将它的推出推迟到2022年,并承诺对算法进行进一步改进。

图像扫描算法能精准检测非法图像吗?

研究人员从一开始就质疑苹果提出的CSAM扫描算法是否能像其声称的那样准确检测和拦截非法图像。实际研究结果表明,无论是苹果的CSAM还是其他的图像扫描算法,都无法实现对非法图像的准确检测。

研究人员解释说,对基于DCT的算法进行了两次白盒攻击和一次黑盒攻击,成功地改变了图像上的独特特征,帮助它逃避了算法扫描。

简单地说,通过对图像应用一个特殊的哈希过滤器,两个人眼看起来相同的图像可能会在算法检测中出现不同。

如何防止图像扫描算法”上当受骗“?

为了保证图像扫描算法有效工作,不被算法欺骗,研究人员提出了两种方法:一是扩大检测阈值;二是在图像ID匹配达到一定阈值后对用户进行标记。

但这两种方法都无法从根本上提高图像扫描结果的可靠性,也会带来更多问题,比如不可避免地侵犯用户隐私。