当深伪技术从名人特权走向普通人的威胁,平台开始有了动作。 YouTube 宣布将其 AI 换脸检测(likeness detection)工具扩展至所有 18 岁以上用户。这项功能采用自拍式面部扫描,用户提交面部数据后,平台会持续监控 YouTube 上是否存在使用其相貌的 AI 生成内容。一旦发现匹配,用户会收到通知,并可选择申请下架。 该工具的扩展路线耐人寻味:最初面向内容创作者,随后逐步扩展至政府官员、议员、记者,最终覆盖娱乐明星,如今终于向普通用户开放。这种由上而下的扩展路径反映出平台对不同群体的风险评估——公众人物的换脸风险显然更高。 移除请求基于 YouTube 的隐私政策进行评估,评判标准包括内容是否足够逼真、是否标注为 AI 生成、是否可唯一识别某人。不过系统仍有局限:仅覆盖面部相似性,不包括声音等其他可识别特征;讽刺模仿等合理使用场景也被豁免。用户可选择退出并要求删除面部数据。 深伪内容以往主要针对名人和政客,但技术民主化带来了新问题。青少年被同学 Deepfake 的案例、Grok 被指控生成未成年人性虐待内容的诉讼,都说明这项威胁已蔓延至普通人群。平台的这一扩展意味着,每个普通人都能主动出击,保护自己的数字身份。 这反映了 AI 换脸检测从被动防御向主动出击的转变。平台的分类分级策略值得关注——从高风险群体逐步扩展至普通用户。但检测技术本身的局限性(面部相似性判断、声音等特征缺失)意味着仅靠平台检测远远不够,用户教育和法律保护仍是关键防线。