生成式AI和深度伪造技术对市场研究行业的挑战 | 勺海译文

发布时间:2024/09/20 00:00      浏览:14
作者:David Hunt
来源:quirks.com
生成式人工智能,即利用计算机生成与人类创作内容难以区分的文字、图像、声音和视频,正在各行各业掀起变革。

技术在不断进步,新应用场景也层出不穷,据估计,到2030年,生成式人工智能每年将为全球经济贡献30万亿美元的价值。


AI技术带来了许多积极的影响,包括快速综合海量数据和文本,让人类能够将时间花在我们依旧擅长的创造性任务上。

然而,这其中也存在一些必须加以防范的严重风险。


我们正处在信息时代,但由于恶意用户大规模使用生成式人工智能,信息的可信度正在逐渐下降。


对于市场研究等信息密集型行业来说,这对工作方式和结果的完整性产生了深远的影响。


尤其值得关注的是“深度伪造”(deepfakes)。


美国国土安全部将其定义为,

“一种新兴威胁,属于更广泛的合成媒体范畴……用于创建看起来可信、逼真的视频、图片、音频和文本,这些事件实际上从未发生过。”


如果落入不法分子之手或因疏忽大意,生成式人工智能和深度伪造技术可能会破坏数据完整性,削弱消费者信任,并影响品牌声誉。


01 数据完整性受到威胁Data integrity is compromised  


对于市场研究人员来说,应对有偏见的、过时和低质量的数据并不是一个新问题。同样,恶意参与者提供误导信息以提升自身利益、打击竞争对手的现象也并不新鲜。这些风险都可以通过多源验证、审查可信的原始内容以及见多识广的员工的努力来降低。


然而,生成式人工智能和深度伪造有所不同。误导性信息可以以更高的质量、更大的数量和更多的人参与制造出来。

换句话说,虚假信息变得更加容易让人信服且泛滥,使得辨别真伪变得更加困难。


生成式人工智能可以用来伪造调查问卷的回答、创建虚假的焦点小组参与者以及篡改访谈录音。


深度伪造视频尤其令人担忧,因为人们往往倾向于相信相信自己所看到的东西。随着视频质量的提升,政客、商业领袖和名人的虚假视频迅速传播,并有效地影响公众观点。


各种形式的合成媒体(视频、音频、文本)都可能导致市场研究结果的偏差,并可能基于受损数据制定出有缺陷的商业策略。


此外,深度伪造内容在互联网上的快速传播能够迅速改变人们的看法,使得市场研究结果变得过时。


最近,ChatGPT的开发者OpenAI推出了一款新产品——Sora,它可以从文本生成逼真且高质量的视频。


OpenAI展示的一个示例是使用“加州淘金热时期的历史影像”这一提示,创建了一个像是无人机飞越加州小镇视角的视频,画面中小镇旁边是一条小河,人们骑着马


显然,1848年并没有无人机或视频录像技术,但现在每个人都可以生成高质量的历史事件替代版本。


值得称赞的是,OpenAI在图像上添加了水印(OpenAI的标志),并通过禁止在视频中使用真实人物(如名人)来设置一些限制


其他公司可能会推出类似技术,然而,恶意用户也可能找到绕过这些限制的方法。


02 人工智能正在侵蚀消费者对市场研究的信任?Is AI eroding consumer trust in market research?


媒体对生成式人工智能的偏见和隐私问题的关注,正在削弱消费者对市场研究的信任。


随着越来越多的滥用案例(无论是真实的还是虚构的)被曝光,消费者对研究结果的真实性和研究机构的道德标准变得愈发怀疑。


剑桥分析公司(Cambridge Analytica)收集大量个人信息并试图操纵投票行为的事件,就是一个典型的例子。


这类事件可能导致研究活动的参与率下降。人们担心自己的意见会被操纵或滥用,因此要么拒绝参与,要么不愿提供真实的反馈。


这种信任的丧失不仅阻碍了研究人员的数据收集能力,还可能导致结果偏差,并损害市场研究行业的声誉。


03 生成式人工智能对品牌声誉的影响The impact of gen AI on brand reputation


试图损害品牌、公司或个人声誉的恶意参与者(坏人)掌握的工具越来越复杂。他们可以制作一段CEO发表高度政治性言论或种族歧视言论的深度伪造视频。


如果这种情况未能及时识别和控制,可能会迅速引发公众强烈的反弹和潜在的抵制。


有些深度伪造视频过于极端,不具备可信度,但另一些却极其逼真。


如果一家公司被发现使用生成式人工智能来误导公众,可能会严重损害其自身在公众心目中的信誉。


例如,《体育画报》(Sports Illustrated)曾使用生成式人工智能撰写体育文章并创建虚拟记者形象。


虽然这并不违法,但由于未向公众公开这一信息而损害了其品牌声誉。


另一个与生成式人工智能相关的担忧是对专有内容的使用问题(无论是有意还是无意)。


如果一家市场研究公司使用生成式人工智能,而该人工智能未经适当引用就从中提取专有信息,那么该公司可能会面临法律诉讼。


例如,《纽约时报》曾因OpenAI和Microsoft非法使用其数百万篇文章来训练ChatGPT而起诉其侵犯版权。


目前还有其他侵犯版权的诉讼正在进行中。


因此,市场研究公司需要警惕,确保从生成式人工智能中获取的内容均未受版权保护。


04 降低假新闻和虚假内容的影响Mitigating the impact of fake news and fake content


毕马威(KPMG)进行的一项消费者信任调查显示,在询问关于生成式人工智能的主要担忧时,67%的受访者将假新闻和虚假内容列为首要问题。


这一比例超过了对隐私、偏见和失业的担忧。


减少虚假合成媒体和生成式AI内容对市场研究的有害影响, 一个需要科技公司、监管机构和最终用户协同行动的高优先级议题。


践行负责任AI方法的科技公司正在通过嵌入元数据来加强数据验证,这些元数据能够识别出使用其产品生成的内容。

科技公司还组建了‘红队(red teams)’,负责扫描输出内容,查找其产品被滥用的情况。


(译者注:“红队”(Red Teams)通常指专门负责模拟攻击和安全测试的团队)。


最近,包括Microsoft、Google和Meta在内的二十家科技公司承诺,将通过在2024年实施的八项措施,来防止人工智能干扰选举。这些措施包括开发新工具以区分人工智能生成的图像与真实内容,并在重大进展方面提高公众的透明度。


监管机构很难跟上快速发展的科技世界的步伐,同时还面临全球各地监管观点不同的问题。


尽管如此,监管方面仍取得一些进展,如欧盟通过了《通用数据保护条例》(GDPR)以保护数据隐私;加拿大则制定了人工智能决策类型的相关规则。


然而,在处理故意误导的合成媒体方面,除了召开听证会和向技术供应商施压要求自我监管外,目前几乎没有取得任何进展。


最佳也是最后一道防线是受过教育的市场研究社群


1)对当前技术有基本了解有利于避免因虚假数据导致市场研究出现偏差,同时也能避免因担心所有信息都是假的而错过有价值的信息。


2)应投资先进的检测技术,以更准确地判断内容是否由人工智能生成。


3)所有员工必须接受培训,以便能够识别和正确使用生成式AI生产的合成媒体内容。

© 2011~2015 3 北京勺海市场调查有限责任公司 | 隐私政策 | 京ICP备09041035号-2

电话:北京总部010-58696306,上海OFFICE:021-52285671    总部地址:中国北京朝阳区东三环中路建外SOHO18号楼1506室   技术支持:混沌鸿蒙