最近发现几个主流的大语言模型 (包括商业的 openai ,claude ,以及开源的 llama3 ),通过 api 提取个人信息的时候全部返回虚假的信息。比如邮件里面客人的名字叫 Mark Brown ,结果返回的信息是 John Doe ,返回的名字几乎都是这个名字。请问下是否这些大语言模型都设置了某种限制,当大量提取 PII (个人信息)的时候自动用虚假信息填充返回?有什么办法可以使它正常运行?
我们的应用场景是想利用大语言模型从几万封客服邮件里面提取出客户信息,包括邮箱、电话、订单号码、刻绘反馈的问题等。我们提取这些信息主要是为了将这些信息跟我们的订单信息进行匹配,从而得知这些客服邮件都来自于哪些订单,进而整理出每款产品都有哪些集中反馈的问题。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.