Meta Threads 测试 AI 账号:不能屏蔽的 Meta AI 引发用户强烈不满
Meta 在 Threads 测试 AI 账号功能,用户发现无法屏蔽 Meta AI,相关话题帖子超 100 万条。该事件暴露了 AI 社交产品中用户选择权和隐私控制的争议。
2026年5月13日 · 阅读约 4 分钟
核心结论
5 月 12 日,Meta 在 Threads 平台测试了一项新功能:用户可以在对话中 @Meta AI 账号来获取 AI 回答。但用户很快发现——这个 AI 账号无法被屏蔽,屏蔽按钮被隐藏,尝试屏蔽会返回错误。该话题迅速在 Threads 上成为热门,"Users cannot block Meta AI" 相关帖子超过 100 万条。
关键要点
- 事件发生时间:2026-05-12
- 涉及平台:Threads(Meta 旗下社交平台)
- 核心争议:用户无法屏蔽 Meta AI 账号,隐私与用户选择权受质疑
- 影响对象:Threads 全球用户、AI 社交产品运营者
背景与触发事件
Meta 于周二(5 月 12 日)宣布在 Threads 上测试一项新功能:用户可以在对话中 @Meta AI 来获取回答,比如 "为什么大家都在谈抹茶" 或 "Cannes 到底怎么读"。Meta 在 AI 领域投入巨大,正努力追赶 OpenAI 和 Google 等竞争对手。
但据 Engadget 最先报道,Threads 用户很快发现这个 AI 账号无法被屏蔽。在 Meta AI 账号页面的三点菜单中,屏蔽选项完全消失。尝试通过其他方式屏蔽的用户会收到错误提示。
数据来源:
| 信源 | 链接 |
|---|---|
| The Verge | Meta won't let you block its AI account on Threads |
| Engadget | Threads users can't block Meta AI |
SEO:第一段含主要关键词 "Meta AI"、"Threads 屏蔽"、"AI 账号"
关键影响(按维度)
| 维度 | 变化 | 对用户的意味 | 建议动作 |
|---|---|---|---|
| 用户隐私 | Meta AI 无法被屏蔽 | 用户失去对 AI 交互的控制权 | 使用 "不感兴趣" 或静音功能替代屏蔽 |
| 平台信任 | 强制 AI 触达引发反弹 | Threads 可能失去用户信任 | 关注后续 Meta 是否调整策略 |
| AI 部署模式 | 社交平台强制嵌入 AI | AI 从工具变为平台基础设施 | 评估自家 AI 产品是否提供退出选项 |
| 行业趋势 | 类似 Grok 在 X 平台的模式 | AI 社交账号将成为常态 | 提前规划 AI 与用户的交互边界 |
适配建议
对于内容生产者和 AI 产品运营者来说,这个事件有以下启示:
- AI 交互透明性:用户应有权选择是否与 AI 交互,默认开启但不可退出引发信任危机
- 屏蔽 vs 静音:Meta 提供了 "不感兴趣" 和静音 Meta AI 回复的选项,但这不等于真正的屏蔽——用户仍会看到 AI 内容
- 公关回应:Meta 发言人 Christine Pai 表示目前处于测试阶段,功能可能变化,但用户不满已形成舆论风暴
行动清单
- 检查自家 AI 产品是否提供退出/屏蔽功能
- 在 AI 功能上线前做好用户预期管理
- 关注 Meta 后续调整方向,作为 AI 社交功能的风向标
示例:Meta AI 的使用场景
用户可 @Meta AI 来获取对话背景信息。例如当新用户加入一个关于 "AI 内容自动化" 的 Threads 讨论时,可以 @Meta AI 询问 "这个讨论在说什么",AI 会给出摘要背景信息。这与 X 平台的 Grok 功能如出一辙。
相关延伸资料
工具词条
正文中自然触发的工具品牌名:Meta AI、ChatGPT、OpenAI、Grok、Google、Gemini、Claude
内链引导(关联阅读)
这个事件反映了 AI 产品在用户信任和隐私控制方面的挑战。结合我们的内容体系:
- 想学 AI 内容自动化?看:如何用 n8n + OpenAI 搭建 AI 内容自动化分发系统
- AI 工具信任建设的真实案例:独立开发者用 n8n + OpenClaw 搭建自动化工作流,月入 5000 美元的实战案例
- 本地 AI 是保护隐私的靠谱选择:如何用 LM Studio 在 M4 Mac 上运行本地 AI 模型