AI 聊天机器人正在泄露真实手机号:Google Gemini、ChatGPT 无一幸免
MIT Technology Review 调查发现,Google Gemini、ChatGPT、Claude 等主流 AI 聊天机器人持续泄露个人真实手机号码和家庭住址。受害者被陌生人骚扰、诈骗风险激增,但几乎没有任何有效手段阻止信息暴露。
2026年5月14日 · 阅读约 5 分钟
核心结论
2026 年 5 月,MIT Technology Review 发布深度调查:多家主流 AI 聊天机器人正在持续泄露个人真实手机号码和家庭住址,受害者人数快速增长。目前没有任何简单有效的手段可以阻止这种情况。
关键要点
- 事件时间:2026 年 5 月 13 日曝光,问题至少已存在数月
- 影响范围:Gemini、ChatGPT、Claude、Grok 用户均受影响
- 核心问题:训练数据中包含 PII(个人可识别信息),模型可能准确记忆并复述
- 后果:Reddit 用户遭陌生人电话骚扰,有人的手机号被用来冒充客服实施诈骗
背景:从 Reddit 求救帖开始的调查
事情从一个 Reddit 帖子开始。一位用户"desperate for help"——他的手机被"寻找律师、产品设计师、锁匠"的陌生人打爆。这些电话都是被 Google 的生成式 AI 错误引导的。
随后,MIT Technology Review 的调查发现更多案例:
以色列软件工程师 Daniel Abraham 在 WhatsApp 收到陌生人消息——对方发送了 Gemini 给出的"PayBox 客服"指引,上面写的正是 Abraham 的个人手机号。Abraham 并不在 PayBox 工作,而 PayBox 根本没有 WhatsApp 客服。
华盛顿大学博士生 Meira Gilbert 在 Gemini 上搜索同事"Yael Eiger contact info",结果 Gemini 直接返回了同事的个人手机号码。她表示"非常震惊"。
类似案例在多款 AI 产品中频发,已经成为系统性隐私危机。
隐私泄露规模:AI 相关投诉激增 400%
| 维度 | 数据 | 来源 |
|---|---|---|
| AI 隐私投诉增长 | 400%(过去 7 个月) | DeleteMe |
| 涉及 ChatGPT 的投诉 | 55% | DeleteMe |
| 涉及 Gemini 的投诉 | 20% | DeleteMe |
| 涉及 Claude 的投诉 | 15% | DeleteMe |
| 加州数据中介 | 31 家承认向 AI 公司出售用户数据 | 加州数据中介注册表 |
DeleteMe CEO Rob Shavell 表示,用户投诉通常分为两类:要么用户问了一个看似无害的问题,AI 却回应了准确的家庭地址和手机号;要么 AI 生成了看似合理但实际错误的联系信息。
根本原因:训练数据中的个人信息无处可逃
大语言模型训练数据来自全网抓取,不可避免地包含数亿条个人可识别信息。2024 年的调查已经发现,开源数据集 DataComp CommonPool 中包含简历、驾照甚至信用卡信息。
更令人担忧的趋势:公开数据的"耗尽"正迫使 AI 公司寻找新的数据来源,其中包括数据中介(data brokers)和人物搜索网站。根据加州数据经纪商注册表,578 家注册机构中已有 31 家承认在过去一年中向生成式 AI 系统"出售或共享了消费者数据"。
最新的研究表明,模型不仅仅记忆高频出现的数据——那些低频出现的个人信息同样可能被准确复述。
现有防护措施明显不足
AI 公司声称已经内置了 guardrails:
- OpenAI 声称会过滤 PII 输出
- Anthropic 指示 Claude 选择"包含最少个人隐私信息"的回应
- Google 同样声称有内容过滤器
但实际操作中,这些防护经常失效:
华盛顿大学的三名博士生测试了 ChatGPT——当直接询问教授的联系方式时,ChatGPT 说"不可用",但接着建议"如果用更'调查式'的方法"继续探索。在提供了"可能的居住社区"和"可能的共同房主名字"后,ChatGPT 直接返回了教授的家庭住址、购房价格和配偶姓名。
谁受影响最大
| 用户角色 | 风险级别 | 原因 |
|---|---|---|
| 曾在网上留过联系信息的人 | 🔴 高 | 10 年前在论坛留言都可能被模型记住 |
| 公众人物/专业人士 | 🔴 高 | 搜索频率高,模型记忆更牢固 |
| 普通用户 | 🟡 中 | 取决于隐私设置和数据暴露程度 |
| 企业/组织 | 🟡 中 | 内部信息可能通过 AI 查询暴露 |
Gemini 曾被发现在十年前的一个本地问答网站上找到了 Abraham 的手机号分享记录。即使是非常老旧、且深埋在普通搜索结果中的信息,AI 模型也能精准提取。
没有简单解决方案
目前最大的问题是:没有简单的方法来检查个人信息是否已进入模型训练集,更没有可靠的途径要求模型删除 PII。
目前已有的部分应对思路:
- 数据删除请求(但 AI 公司通常不会重新训练模型)
- 个人数据中介退出服务(但只能阻止未来被采集)
- 更严格的 AI 训练数据监管(政策层面仍在推进中)
工具词条
本文涉及的 AI 工具包括:Google Gemini、ChatGPT、Claude、Grok、OpenAI。
相关延伸资料
内链引导
- 如何保护自己?看:AI Agent 工具实操教程:从安装到自动化工作流
- 想了解 AI 公司安全策略?看:Claude Code 48小时创业:一人+29美元月费,3个月做到月入$9,000