在招致隐私活动人士强烈反弹后,苹果(Apple)屈从于压力,宣布暂缓实施用软件检测iPhone上有没有儿童色情和性虐待照片的计划。
该公司表示,它将推迟并可能修改新系统,该系统原定于今年推出。
“我们决定在未来几个月内花更多时间收集意见并进行改进,然后再推出这些至关重要的儿童安全功能,”苹果在一份声明中表示。
其中一项拟议的功能涉及一种将用户iPhone上传到iCloud Photos的照片与已知的儿童性虐待图像数据库进行比对的系统。
您已阅读27%(216字),剩余73%(576字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。