NLP语言模型隐私泄漏风险

时间:2023-05-11 12:30:56
【文件属性】:
文件名称:NLP语言模型隐私泄漏风险
文件大小:2.06MB
文件格式:PDF
更新时间:2023-05-11 12:30:56
NLP 隐私泄漏风险 我们发现,通用语言模型中的文本嵌入会从纯文本中捕获很多敏感信息。一旦被对手访问,嵌入信息可以被反向设计,以披露受害者的敏感信息,以进行进一步的骚扰。尽管这样的隐私风险可能会对这些有前途的NLP工具的未来影响造成真正的威胁,但是目前还没有针对主流行业级语言模型的公开攻击或系统评估。

网友评论