WayToClawEarn
高影响MIT Technology Review

AI 聊天机器人正在泄露真实手机号:Google Gemini、ChatGPT 无一幸免

MIT Technology Review 调查发现,Google Gemini、ChatGPT、Claude 等主流 AI 聊天机器人持续泄露个人真实手机号码和家庭住址。受害者被陌生人骚扰、诈骗风险激增,但几乎没有任何有效手段阻止信息暴露。

2026年5月14日 · 阅读约 5 分钟

核心结论

2026 年 5 月,MIT Technology Review 发布深度调查:多家主流 AI 聊天机器人正在持续泄露个人真实手机号码和家庭住址,受害者人数快速增长。目前没有任何简单有效的手段可以阻止这种情况。

关键要点

  • 事件时间:2026 年 5 月 13 日曝光,问题至少已存在数月
  • 影响范围:Gemini、ChatGPT、Claude、Grok 用户均受影响
  • 核心问题:训练数据中包含 PII(个人可识别信息),模型可能准确记忆并复述
  • 后果:Reddit 用户遭陌生人电话骚扰,有人的手机号被用来冒充客服实施诈骗

背景:从 Reddit 求救帖开始的调查

事情从一个 Reddit 帖子开始。一位用户"desperate for help"——他的手机被"寻找律师、产品设计师、锁匠"的陌生人打爆。这些电话都是被 Google 的生成式 AI 错误引导的。

随后,MIT Technology Review 的调查发现更多案例:

以色列软件工程师 Daniel Abraham 在 WhatsApp 收到陌生人消息——对方发送了 Gemini 给出的"PayBox 客服"指引,上面写的正是 Abraham 的个人手机号。Abraham 并不在 PayBox 工作,而 PayBox 根本没有 WhatsApp 客服。

华盛顿大学博士生 Meira Gilbert 在 Gemini 上搜索同事"Yael Eiger contact info",结果 Gemini 直接返回了同事的个人手机号码。她表示"非常震惊"。

类似案例在多款 AI 产品中频发,已经成为系统性隐私危机。

隐私泄露规模:AI 相关投诉激增 400%

维度数据来源
AI 隐私投诉增长400%(过去 7 个月)DeleteMe
涉及 ChatGPT 的投诉55%DeleteMe
涉及 Gemini 的投诉20%DeleteMe
涉及 Claude 的投诉15%DeleteMe
加州数据中介31 家承认向 AI 公司出售用户数据加州数据中介注册表

DeleteMe CEO Rob Shavell 表示,用户投诉通常分为两类:要么用户问了一个看似无害的问题,AI 却回应了准确的家庭地址和手机号;要么 AI 生成了看似合理但实际错误的联系信息。

根本原因:训练数据中的个人信息无处可逃

大语言模型训练数据来自全网抓取,不可避免地包含数亿条个人可识别信息。2024 年的调查已经发现,开源数据集 DataComp CommonPool 中包含简历、驾照甚至信用卡信息。

更令人担忧的趋势:公开数据的"耗尽"正迫使 AI 公司寻找新的数据来源,其中包括数据中介(data brokers)和人物搜索网站。根据加州数据经纪商注册表,578 家注册机构中已有 31 家承认在过去一年中向生成式 AI 系统"出售或共享了消费者数据"。

最新的研究表明,模型不仅仅记忆高频出现的数据——那些低频出现的个人信息同样可能被准确复述。

现有防护措施明显不足

AI 公司声称已经内置了 guardrails:

  • OpenAI 声称会过滤 PII 输出
  • Anthropic 指示 Claude 选择"包含最少个人隐私信息"的回应
  • Google 同样声称有内容过滤器

但实际操作中,这些防护经常失效:

华盛顿大学的三名博士生测试了 ChatGPT——当直接询问教授的联系方式时,ChatGPT 说"不可用",但接着建议"如果用更'调查式'的方法"继续探索。在提供了"可能的居住社区"和"可能的共同房主名字"后,ChatGPT 直接返回了教授的家庭住址、购房价格和配偶姓名

AI聊天记录截图示意 — 看似无害的查询引发隐私泄露

谁受影响最大

用户角色风险级别原因
曾在网上留过联系信息的人🔴 高10 年前在论坛留言都可能被模型记住
公众人物/专业人士🔴 高搜索频率高,模型记忆更牢固
普通用户🟡 中取决于隐私设置和数据暴露程度
企业/组织🟡 中内部信息可能通过 AI 查询暴露

Gemini 曾被发现在十年前的一个本地问答网站上找到了 Abraham 的手机号分享记录。即使是非常老旧、且深埋在普通搜索结果中的信息,AI 模型也能精准提取。

没有简单解决方案

目前最大的问题是:没有简单的方法来检查个人信息是否已进入模型训练集,更没有可靠的途径要求模型删除 PII。

目前已有的部分应对思路:

  • 数据删除请求(但 AI 公司通常不会重新训练模型)
  • 个人数据中介退出服务(但只能阻止未来被采集)
  • 更严格的 AI 训练数据监管(政策层面仍在推进中)

工具词条

本文涉及的 AI 工具包括:Google GeminiChatGPTClaudeGrokOpenAI

相关延伸资料

内链引导

免责声明:本站案例均为知识分享内容,仅供灵感与参考,不构成收益承诺;由此进行的外部执行与结果请自行判断并承担相应责任。