别被“采用率”骗了 | 大家都在用 AI,并不代表大家信任它

发布时间:2026/04/23 00:00      浏览:28
作者:Wendy Smith (SurveyMonkey 研究科学部的资深经理)
来源:

据 SurveyMonkey 最新的《AI 情绪研究》显示,现在每三个美国人中就有一个在每天或每周使用 AI。

与此同时,怀疑论也在加剧。

然而,许多组织仍然错误地将“使用率”等同于“认可度”。

这种假设忽视了当今 AI 领域最重要的信号:矛盾心态(Ambivalence)。


01 矛盾心态是一个可衡量的信号

Ambivalence is a measurable signal


通常,人们将 AI 情绪描述为“采用率”与“信任度”之间的赛跑,仿佛前者必然会带动后者。

但我们的数据给出了不同的结论:

随着美国人开始应对长期变革,他们的观点变得更加细化。

SurveyMonkey 的研究显示:

  • 几乎所有美国人 (98%) 都预见到 AI 将影响世界。

  • 近半数 (46%) 的人将其列为 2030 年最重要的社会议题之一,仅次于经济稳定 (51%)。

  • 对于 Z 世代来说,AI 的影响是未来的头号担忧。

但这并非简单的悲观主义。

五分之三的美国人认为 AI 的影响将是“利弊参半”的,而一年前这一比例仅为 35%。

这种混合心态改变了人们的行为:

他们使用 AI,但会反复核对结果;他们看重速度,但仍期望人类监督。他们选择了加入——但带有附加条件。

对于研究员来说,这意味着像“你信任 AI 吗?”这样的二元对立问题已不再够用。真正的洞察隐藏在灰色地带:

  • AI 何时让人觉得有帮助?

  • 何时越界?

  • 又是什么最快摧毁了信任?


02 当 AI 信用破裂,消费者会重新分配他们的信任

When AI credibility fractures, consumers reallocate their trust


研究表明,最快摧毁消费者信任的行为是未经授权使用数据。

38% 的美国人表示,如果 AI 助手在未经同意的情况下存储或分享个人数据,他们会立即失去对该公司信任。

这一担忧超过了我们测试的所有其他因素。

其他“信任杀手”也与控制权和透明度有关:

  • 23% 的人由于无法转接人工客服而失去信任。

  • 14% 的人由于企业未告知正在与 AI 互动而感到不满。

  • 11% 的人反感公式化或照本宣科的回复。

一旦信任破裂,用户如果没彻底放弃 AI,也会迅速更换工具。

最近从 ChatGPT 到 Claude 的大规模用户迁移就是例证。

由于 ChatGPT 隐私争议不断,而 Claude 明确拒绝国防部将其模型用于国内监控或自主武器,许多用户果断切断了联系,并带走了他们的“数字记忆”。


03 高风险决策暴露了信任的底线

High-stakes decisions expose where trust really stops


看看招聘领域,就能明白美国人在 AI 面前划下的最硬底线在哪里。

研究显示,人们极度抵制在没有人类参与的情况下让 AI 进行招聘决策:

  • 87% 的美国人要求人类参与求职过程。

  • 48% 的人接受“人类主导 + 辅助 AI”,39% 的人只信任纯人类决策。

  • 只有 9% 的人完全信任 AI。

随着决策后果的加重,人们的舒适度骤降:

  • 31% 接受 AI 识别潜在候选人。

  • 26% 接受 AI 筛选简历。

  • 6% 接受 AI 进行面试。

  • 只有 5% 接受 AI 做出最终录用决定。

有趣的是,这里存在一种不对称性:

只有 25% 的人信任 AI 能公平评价候选人,却有 61% 的人会利用 AI 帮自己找工作(通常是优化简历)。 

这告诉我们:

人们更愿意把 AI 当作工具使用,而不是被它审判。 控制感和问责制至关重要。


04 AI 消费趋势给市场研究员的启示

What consumer AI trends reveal for market researchers


单纯的 AI 采用率指标已无法反映全貌。

满意度可能维持稳定,但怀疑感却在暗流涌动。

根据《SurveyMonkey 2026 趋势报告》,随着技术在决策中扮演的角色越来越重,人们对透明度和人类问责的预期也在提高。

速度本身无法建立信任,语境(Context)才能。

这对研究员来说既是责任也是机会:

1. 显性衡量矛盾心态: 持续性研究至关重要。单次的快照式调研会漏掉情绪的演变。

2. 研究“AI 可接受度”的边界: 接受度是高度场景化的。在低风险时刻 AI 表现亮眼,在高风险时刻则让人深感不安。

3. 研究透明度本身: 人们需要告知,但告知的方式很重要。如果透明度看起来像在作秀,它就起不到安抚作用。


05 矛盾心态是值得倾听的信号

Consumer ambivalence is a signal worth listening to


组织能做出的最危险假设就是:熟练度最终会转化为信任。 

数据告诉我们事实恰恰相反——随着 AI 变得越来越普遍,人们反而观察得更加仔细。

AI 会继续狂飙突进。问题在于,我们是否测量了正确的信号,以理解人们真实的感受。


附-AI情绪研究核心词汇表


1. Ambivalence (矛盾心态 / 摇摆性)

本文的核心关键词。指用户对 AI 同时持有积极(如依赖其高效)和消极(如担心隐私)的矛盾情感。

研究指出,这种“边用边疑”的状态是比单纯的信任或反对更重要的市场信号。


2. Proxy (替代指标 / 代理变量)

统计学概念。文中批评许多机构将“采用率(Usage)”作为“认可度(Approval)”的替代指标,认为高频使用并不代表用户真正放心,这种误读会导致品牌错判风险。


3. Binary Questions (二元问题 / 是否题)

指只有“是/否”两个选项的简单调研问题。作者认为在衡量复杂的 AI 态度时,这类问题已失效,无法捕捉用户在不同场景下的细微心理差异。


4. Non-consensual Data Use (未经授权的数据使用)

隐私合规术语。指企业在未获得用户明确同意的情况下收集或分享数据。调研显示这是排名第一的“信任杀手”,会直接导致用户倒戈(如从 ChatGPT 转向 Claude)。


5. High-stakes Decisions (高风险决策 / 高利害决策)

 指那些会对个人生活产生重大影响的场景,如招聘、医疗、法律决策等。数据证明,AI 在这些领域的渗透最容易触碰用户的信任红线。


6. Asymmetry (不对称性)

指用户对待 AI 时“双重标准”的现象。例如,61% 的人愿意用 AI 优化简历(利己),但只有 25% 的人信任 AI 能公平评价自己(防人)。


7. Human Oversight (人类监督 / 人工审查)

强调在 AI 决策链路中必须有“人”在场。即便用户接受 AI 提高速度,但在最终决策阶段,他们依然强烈要求人类的介入以确保公正。


8. Reallocate Trust (重新分配信任)

描述用户在信任破裂后的行为。用户不会因为一款 AI 出错就彻底放弃技术,而是会迅速带着“数字资产”迁移到另一款更有声望或更合规的竞品上。


9. Performative Transparency (表演式透明)

指企业为了公关需要而进行的虚假或表面化披露。如果透明度缺乏细节和问责制,用户会认为这只是在走过场,反而会进一步加剧怀疑。


10. Contextual Acceptance (场景化接受度)

 强调 AI 的可接受度并非一成不变,而是取决于具体语境。低风险场景(如改写邮件)接受度高,高风险场景(如面试评估)接受度极低。

© 2011~2015 3 北京勺海市场调查有限责任公司 | 隐私政策 | 京ICP备09041035号-2

电话:北京总部010-58696306,上海OFFICE:021-52285671    总部地址:中国北京朝阳区东三环中路建外SOHO18号楼1506室   技术支持:混沌鸿蒙