浓眉大眼的苹果又一次陷入了“水深火热”当中。苹果计划检测用户iPhone上是否存在儿童性虐待图片,并保护一些未成年人不会在短信中收到露骨的图片,这引发了围绕技术扩张和用户隐私的一轮剧烈争议。
苹果今年推出了防止APP追踪功能,站上了保护用户隐私的高地,却也得罪了一批依赖广告为生的商业公司。如今一纸“扩大儿童保护”公告,也把大批普通用户得罪了。这是为什么呢?我们先来看下苹果计划推出的三项措施:
一是“Siri执法”,当用户向Siri询问“如何举报儿童遭到剥削”等类似问题时,Siri会提供相应的举报途径;而当用户尝试搜索关于儿童性虐的内容时,Siri会作出干预;
二是“自动打码”,当儿童的通讯应用接收或者发出色情照片时,照片会被模糊,系统会发出警告,必要时会通知儿童的父母。
三是“iCloud巡逻”,苹果研发了一项称为“神经网络哈希”(NeuralHash)的技术,该技术将能够检测存储在iCloud中的照片,是否是已知的儿童性虐图像,从而将这些情况报告给国家失踪和受虐儿童中心(NCMEC)。
苹果陷入“水深火热”
这项“神经网络哈希”技术引发的争议格外大,因为单从描述来看,苹果似乎是要把用户iCloud相册扫个“底儿朝天”。为了打消外界担忧,苹果专门举行了记者会,也出具了一份12页的技术文件,向公众明确其中的工作原理。
据了解,一些执法机构、致力于儿童保护的组织会维护一些儿童色情文件的数据库,其中每个文件都有对应的“哈希值”(hash ),通过软件就可以识别出来。苹果的“神经网络哈希”技术就是用于识别用户上传到iCloud的照片的“哈希值”。苹果一再强调,这个过程做的是“哈希值”匹配,而不是图片识别。
即便如此,反对的声音也如潮水般涌来。据了解,超过7000名用户与30家组织在Github上共同签署了抵制苹果这项技术的联名信。目前,反对的观点主要包括了两个方向。
典型的如苹果的老对头Epic Games,这家游戏公司的CEO在多条Twitter中表示,苹果扫描iCloud中的照片,等于扫描用户的个人物品,这在法律上是不允许的。WhatsApp的负责人威尔·卡思卡特(WillCathcart)也表示,苹果这项技术应当有更多第三方介入以保证安全。这与大多数网友的观点一致,他们表达了一种被“侵犯感”,以及对苹果这项技术的不信任,有网友直言,苹果这次令人感到“毛骨悚然”。
而一些致力于隐私保护的组织和团体,将思虑延伸至更远。他们认为,苹果这样做可能引发更多公司效仿,从而造成全球性的隐私事件,导致大规模的隐私安全事故。
技术扩张的边界在哪儿?
在众多声音当中,也有人表达了对苹果的理解和支持。有网友提到,苹果清清楚楚地呈现了新技术的工作原理,为什么会不相信呢?也有网友指出,从最悲观的角度,苹果可以在任何时候给你的iPhone“开后门”,你选择了iPhone,却不选择相信这项技术,是不是自我矛盾?
这一观点其实指向了技术扩张的边界,即“无罪”的技术是否可以通过“向善”的理由而扩张?比如人脸识别技术给我们的生活带来了极大方便,也在许多场所提供了治安保护作用,但人脸识别中的隐私泄露,已经成为违法的重灾区。
我们经历了一段科技加速向生活渗透的时期之后,人们普遍有了对技术的反思意识。苹果选择在这个时候,在最敏感的领域推出新技术,一定会迎来反对。因此,问题的关键在于,苹果这一切的出发点是什么?
苹果为什么想起来保护儿童了
苹果在公告中表示,保护儿童是一项重要的责任,这些努力将随着时间的推移不断发展和扩大。据了解,苹果希望将这些技术扩展到第三方,以便用户得到更广泛的保护。苹果强调这将是一个理想的目标。
看来,苹果不仅想要保护儿童,还想要帮助其它公司一起保护儿童,并为其它公司提供技术输出。说到这里,苹果的初心到底是什么,你是不是也分不清了?
不过,苹果针对儿童的工作确实做了不少。比如,去年推出的SE版本的AppleWatch,被认为是儿童版的苹果手表,其中与家长的联动可以让大人随时“看护”小孩。
另外,苹果正在与学校合作,不少学校的入学新生,都可以免费使用iPad Air三件套。苹果还专门开发培训课程,教新同学使用数字产品作为生产力工具。
不论是硬件产品还是软件服务,家长与儿童、青少年市场都是苹果的重要的增量市场。未来,苹果针对这些人群进一步推出专门的产品,也不是不可能。
而闹得沸沸扬扬的“神经网络哈希”技术,是不是苹果在儿童、青少年市场的又一次“公关式”手段,我们不得而知。不过,对于这项技术,苹果显然还要给出更有说服力的理由,让家长、让用户感到技术之必要,彻底打消舆论中那些担忧的声音。
(7747403)
,