别被“采用率”骗了 | 大家都在用 AI,并不代表大家信任它
发布时间:2026/04/23 00:00 浏览:28
作者:Wendy Smith (SurveyMonkey 研究科学部的资深经理)
来源:
据 SurveyMonkey 最新的《AI 情绪研究》显示,现在每三个美国人中就有一个在每天或每周使用 AI。
与此同时,怀疑论也在加剧。
然而,许多组织仍然错误地将“使用率”等同于“认可度”。
这种假设忽视了当今 AI 领域最重要的信号:矛盾心态(Ambivalence)。
01 矛盾心态是一个可衡量的信号
Ambivalence is a measurable signal
通常,人们将 AI 情绪描述为“采用率”与“信任度”之间的赛跑,仿佛前者必然会带动后者。
但我们的数据给出了不同的结论:
随着美国人开始应对长期变革,他们的观点变得更加细化。
SurveyMonkey 的研究显示:
-
几乎所有美国人 (98%) 都预见到 AI 将影响世界。
-
近半数 (46%) 的人将其列为 2030 年最重要的社会议题之一,仅次于经济稳定 (51%)。
-
对于 Z 世代来说,AI 的影响是未来的头号担忧。
但这并非简单的悲观主义。
五分之三的美国人认为 AI 的影响将是“利弊参半”的,而一年前这一比例仅为 35%。
这种混合心态改变了人们的行为:
他们使用 AI,但会反复核对结果;他们看重速度,但仍期望人类监督。他们选择了加入——但带有附加条件。
对于研究员来说,这意味着像“你信任 AI 吗?”这样的二元对立问题已不再够用。真正的洞察隐藏在灰色地带:
-
AI 何时让人觉得有帮助?
-
何时越界?
-
又是什么最快摧毁了信任?
-
02 当 AI 信用破裂,消费者会重新分配他们的信任
When AI credibility fractures, consumers reallocate their trust
研究表明,最快摧毁消费者信任的行为是未经授权使用数据。
38% 的美国人表示,如果 AI 助手在未经同意的情况下存储或分享个人数据,他们会立即失去对该公司信任。
这一担忧超过了我们测试的所有其他因素。
其他“信任杀手”也与控制权和透明度有关:
一旦信任破裂,用户如果没彻底放弃 AI,也会迅速更换工具。
最近从 ChatGPT 到 Claude 的大规模用户迁移就是例证。
由于 ChatGPT 隐私争议不断,而 Claude 明确拒绝国防部将其模型用于国内监控或自主武器,许多用户果断切断了联系,并带走了他们的“数字记忆”。
03 高风险决策暴露了信任的底线
High-stakes decisions expose where trust really stops
看看招聘领域,就能明白美国人在 AI 面前划下的最硬底线在哪里。
研究显示,人们极度抵制在没有人类参与的情况下让 AI 进行招聘决策:
随着决策后果的加重,人们的舒适度骤降:
-
31% 接受 AI 识别潜在候选人。
-
26% 接受 AI 筛选简历。
-
6% 接受 AI 进行面试。
-
只有 5% 接受 AI 做出最终录用决定。
有趣的是,这里存在一种不对称性:
只有 25% 的人信任 AI 能公平评价候选人,却有 61% 的人会利用 AI 帮自己找工作(通常是优化简历)。
这告诉我们:
人们更愿意把 AI 当作工具使用,而不是被它审判。 控制感和问责制至关重要。
04 AI 消费趋势给市场研究员的启示
What consumer AI trends reveal for market researchers
单纯的 AI 采用率指标已无法反映全貌。
满意度可能维持稳定,但怀疑感却在暗流涌动。
根据《SurveyMonkey 2026 趋势报告》,随着技术在决策中扮演的角色越来越重,人们对透明度和人类问责的预期也在提高。
速度本身无法建立信任,语境(Context)才能。
这对研究员来说既是责任也是机会:
1. 显性衡量矛盾心态: 持续性研究至关重要。单次的快照式调研会漏掉情绪的演变。
2. 研究“AI 可接受度”的边界: 接受度是高度场景化的。在低风险时刻 AI 表现亮眼,在高风险时刻则让人深感不安。
3. 研究透明度本身: 人们需要告知,但告知的方式很重要。如果透明度看起来像在作秀,它就起不到安抚作用。
05 矛盾心态是值得倾听的信号
Consumer ambivalence is a signal worth listening to
组织能做出的最危险假设就是:熟练度最终会转化为信任。
数据告诉我们事实恰恰相反——随着 AI 变得越来越普遍,人们反而观察得更加仔细。
AI 会继续狂飙突进。问题在于,我们是否测量了正确的信号,以理解人们真实的感受。
附-AI情绪研究核心词汇表
1. Ambivalence (矛盾心态 / 摇摆性)
本文的核心关键词。指用户对 AI 同时持有积极(如依赖其高效)和消极(如担心隐私)的矛盾情感。
研究指出,这种“边用边疑”的状态是比单纯的信任或反对更重要的市场信号。
2. Proxy (替代指标 / 代理变量)
统计学概念。文中批评许多机构将“采用率(Usage)”作为“认可度(Approval)”的替代指标,认为高频使用并不代表用户真正放心,这种误读会导致品牌错判风险。
3. Binary Questions (二元问题 / 是否题)
指只有“是/否”两个选项的简单调研问题。作者认为在衡量复杂的 AI 态度时,这类问题已失效,无法捕捉用户在不同场景下的细微心理差异。
4. Non-consensual Data Use (未经授权的数据使用)
隐私合规术语。指企业在未获得用户明确同意的情况下收集或分享数据。调研显示这是排名第一的“信任杀手”,会直接导致用户倒戈(如从 ChatGPT 转向 Claude)。
5. High-stakes Decisions (高风险决策 / 高利害决策)
指那些会对个人生活产生重大影响的场景,如招聘、医疗、法律决策等。数据证明,AI 在这些领域的渗透最容易触碰用户的信任红线。
6. Asymmetry (不对称性)
指用户对待 AI 时“双重标准”的现象。例如,61% 的人愿意用 AI 优化简历(利己),但只有 25% 的人信任 AI 能公平评价自己(防人)。
7. Human Oversight (人类监督 / 人工审查)
强调在 AI 决策链路中必须有“人”在场。即便用户接受 AI 提高速度,但在最终决策阶段,他们依然强烈要求人类的介入以确保公正。
8. Reallocate Trust (重新分配信任)
描述用户在信任破裂后的行为。用户不会因为一款 AI 出错就彻底放弃技术,而是会迅速带着“数字资产”迁移到另一款更有声望或更合规的竞品上。
9. Performative Transparency (表演式透明)
指企业为了公关需要而进行的虚假或表面化披露。如果透明度缺乏细节和问责制,用户会认为这只是在走过场,反而会进一步加剧怀疑。
10. Contextual Acceptance (场景化接受度)
强调 AI 的可接受度并非一成不变,而是取决于具体语境。低风险场景(如改写邮件)接受度高,高风险场景(如面试评估)接受度极低。