
在当今的消费社会,人工智能(AI)已经悄然渗透到生活的方方面面。从购物网站的推荐系统,到手机里的智能助手,再到银行的智能客服,AI正以前所未有的方式影响着人们的消费决策。但AI不仅是消费者决策的隐形助手,同样可能成为商家操纵的工具,是推动人们过度消费的黑手。由此,一个新问题日益浮现:作为普通消费者,如何保持清醒的判断?
我们认为,要理解AI在驱动消费中的这一作用,需要从人类决策的心理机制入手,揭示它在不同情境下如何既帮助我们做出更明智的选择,又如何在不知不觉中模糊我们的判断。在此基础上,才能更好地驾驭AI,让其为社会造福。
一、人类决策的两套系统
双重过程理论(Dual Process Theory)是心理学中一个重要的理论框架,最初是由心理学家斯坦诺维奇(Keith E. Stanovich)和威斯特(Richard F. West)提出来的,因诺贝尔经济学奖得主卡尼曼畅销书《快思考,慢思考》的引用而广为人知。它把人类的决策过程分为两种系统:系统一(System 1)和系统二(System 2)。系统一是快速、自动、直觉的决策系统,它依赖于经验和情感,往往在我们无意识的情况下运作;系统二则是缓慢、理性、深思熟虑的决策系统,它需要主动思考和分析,通常用于处理复杂问题。
在日常消费决策中,两个系统常常同时发挥作用。比如,当我们看到一件打折商品时,系统一会让我们产生“占便宜”的直觉反应;而系统二则会让我们思考“我真的需要它吗?”AI正是通过影响这两个系统,来引导我们的消费行为。
二、AI如何影响消费者的系统一决策?
系统一的特点是快速、自动、情感化,而AI恰恰擅长利用这些特点来影响我们的直觉判断。这体现在:
1. 个性化推荐:制造“如遇知音”的错觉
现代电商平台和流媒体服务的推荐系统,正是基于对用户行为数据的分析,来预测我们的偏好。比如,当我们在电商平台浏览了几件衣服后,系统会立刻推荐“你可能喜欢”的商品;在在线音乐平台上听了几首歌后,系统即刻生成“每日推荐”歌单。这些推荐往往精准到让我们感觉“它比我还懂我”。
但这种“如遇知音”的错觉,并非AI真正理解我们,而是它通过算法捕捉了我们的行为模式,并激活了大脑中类似“可得性启发式”(Availability Heuristic)的认知反应,即我们更容易相信和喜欢那些熟悉或最近接触过的选项。
网飞(Netflix)公司曾公开表示其推荐引擎影响了80%以上的内容观看选择。亚马逊有约35%的销售额来自其推荐引擎,当你浏览一本书时,系统会立刻显示“购买此书的顾客还购买了”其他书籍,这种推荐方式让消费者感觉这些书籍是“真正知我者”要他买的,从而大大提高了转化率。
2. 限时促销:激发“害怕错过”的心理
AI还常常通过限时促销、倒计时等方式,激发消费者“害怕错过”(Fear of Missing Out, FOMO)的心理。比如,当消费者在购物车中添加商品后,系统提示“库存仅剩3件”或“优惠即将结束”,这些信息会激活其系统一思维,并触发损失厌恶偏差——消费者下意识地担心“现在不买就亏了”,从而快速做出购买决策。
一些电商平台通过“限时秒杀”“拼团优惠”等方式,就成功利用了这种心理机制。许多消费者在看到“仅剩2小时”或“已有100人拼团”的提示时,会不自觉地加快决策,即使原本并不急需这些商品。这种时间压力、社交暗示、损失提示的强组合,显著地放大了FOMO效应。
3. 社交背书:利用从众心理
AI还会通过展示“热销商品”、“用户评价”等信息,利用从众心理影响消费者的决策。比如,当我们看到“已有10万人购买”或“某明星同款”时,就会激活系统一思维,下意识地觉得“大家都买的一定好”,从而减少对商品本身的理性评估。
小红书通过“种草笔记”和“用户评价”系统,成功利用了社交背书效应。当用户看到大量关于某款化妆品的好评,尤其是来自相似背景的人的真实分享时,会下意识地认为“这款产品也应该很适合我”,从而更容易下单购买。这种看似真实、贴近生活的推荐,比传统广告更具说服力,也让小红书成为许多年轻人的消费决策指南。
三、AI如何影响消费者的系统二决策?
与系统一的“快、直觉、自动”不同,系统二是大脑中“慢、理性、费力”的部分。它负责逻辑推理、复杂计算和长远规划,是人们在面对重要消费决策时,自认为“最靠谱”的思维方式。然而,正因为系统二需要主动调动、消耗大量认知资源,AI便有机会通过精心设计的信息架构和决策路径,巧妙地引导消费者的理性思考,让其在自以为“理性”的过程中,偏离初衷。
下面通过三个具体场景,看看AI是如何操纵消费者的理性决策的。
1. 引入冗余选项,改变比较标准
当某客户在某汽车平台上选购一款车时,AI助手为她列出了三款车型的详细对比表,包括价格、油耗、空间、安全性等指标。客户认真地看着表格,开始逐项打分——这是典型的系统二在运作。
但她会发现,表格中还列出了“天窗开启时间”“座椅调节方式”“车内氛围灯颜色数量”等几项指标。这些指标占了整体评分权重的20%。客户心想:“既然平台提供了,那就一起比较吧。”于是开始认真分析,她特别喜欢“氛围灯颜色数量”,因此给某款车打了高分。
问题恰恰在于:AI故意加入很多不重要但容易比较的指标,让客户分散注意力,反而忽略了真正重要的质量、油耗和安全性。系统二虽然启动,但它被引导去算太多不重要的事。客户可能会选择一款在“细节”上得分高、但价格明显更贵的车型,还觉得自己比对了所有数据,做出了理性选择。
这是一种“认知稀释”策略,让系统二陷入细节而忽略全局,最终得出的“理性结论”其实是被操控的。
2. 不对称信息呈现,扭曲收益预期
除了通过冗余信息干扰判断,AI还可以通过信息的不对称呈现,扭曲理性决策的基础。
来看一个理财APP的例子。客户想投资一只基金,AI助手为他推荐了一只“过去5年收益高达80%”的产品,并附上了漂亮的收益曲线图。它的“年化收益率”是12%,看起来相当诱人。
客户于是用系统二算了一下:如果每年12%,投资10年,复利下来岂不是翻三倍?这笔投资“很划算”!于是果断买入。
但他没注意的是,页面下方的小字还写着:“该基金最大回撤为-35%,波动率为22%。”而这些信息没有图表、没有可视化、也没有对比,只是静静地躺在页面底部。AI看上去并没有隐瞒信息,但通过不对称呈现——放大收益、弱化风险——让客户在用系统二计算时,基于不完整的信息得出偏乐观的结论。
3. 设置复杂对比路径,诱导“默认选项”
更进一步,AI甚至可以利用系统二的“费力特性”,通过设计复杂的决策路径,让理性思考“知难而退”。
以在某平台上购买健康险为例,AI助手为客户推荐了一款“默认方案”:一次性缴费3万元,保障20年。页面下方有一个按钮:“点击查看其他缴费方式”。
客户点进去后,发现还有其他选项,比如“分期缴费”“按年缴费”“按月缴费”,但每种方式都要手动输入预期利率、贴现率、通胀率等参数,才能算出“哪种更划算”。
如果客户开始尝试计算,就会发现这需要了解贴现公式、年金现值等金融知识。计算过程也非常麻烦,于是不得不返回默认方案,心想:“一次性缴费虽然贵点,但省事,而且平台推荐的总不会错。”
这就是AI对系统二的“反向利用”:它并不阻止思考,而是把其他选项设计得过于复杂,让客户在“理性计算”的过程中感到认知疲劳,最终主动放弃对比,回到平台规划好的默认方案。此时客户依然觉得自己“理性考虑过了”,但实际上,其理性已经被“复杂性”劝退。
四、在AI时代保持理性消费
从上面的分析可以看出,AI在消费决策中扮演了一个双重角色:它既是客户和商家的助手,也可能是操纵消费者心理的黑手。面对这种双重角色,我们需要采取相应的应对策略,既要利用AI的优势,也要避免被这只黑手所操纵。
尽管有AI的潜在影响,对于多数人而言,我们仍然主张需要主动激活系统二,以理性思维来主导消费决策。具体可以从以下几个方面入手:
首先,建立理性决策的习惯。在做出购买决定前,不妨先列出自己的实际需求和预算,仔细对比不同选项的优缺点。同时,当面对AI推荐时,不要轻易接受,而是主动搜索其他信息,验证推荐的真实性和可靠性。这种做法可以有效减少AI对系统一的操控,帮助我们做出更符合自身利益的判断。在使用“花呗”等信用工具时,要设定每月的消费上限,避免过度消费。同时,也要定期检查自己的消费记录,确保AI的推荐符合自己的实际需求。
其次,保持批判性思维。要避免被AI牵着鼻子走,关键在于培养批判性思维。例如,可以定期清理购物车,避免因一时冲动而消费;关闭不必要的推送通知,减少诱惑;制定清晰的消费计划,避免陷入“个性化推荐”的陷阱。
第三,尝试“反向搜索”策略。在面对AI推荐时,消费者可以采取“反向搜索”的策略。比如,当看到某款商品被推荐时,可以再搜索一下其他平台的评价和价格,确保自己不会因为单一推荐而做出不理性的决定。
最后,设定消费边界,远离过度影响。为了进一步保护自己的消费决策权,我们还可以通过“数字排毒”来定期远离AI的影响。比如,设定“无手机日”,在这一天不使用任何智能设备,避免被算法推荐和营销信息所左右。这种做法不仅有助于我们重新获得对消费决策的控制,也能让生活更加自主和从容。
五、从操控到助推:构建AI向善的消费新秩序
双重过程理论可以帮助我们理解AI在消费决策中的作用,理解AI技术如何影响消费者的决策过程。如何在与AI的互动中保持人类的自主性和理性,已经成为一个重要的社会议题。
近年来,经济合作与发展组织(OECD)多次发布报告,揭示许多商家在AI时代大量运用“暗黑模式”(dark patterns)——即通过界面设计、算法推荐等手段,诱导用户做出非理性选择。AI这只黑手往往利用系统一的直觉反应,有时也会利用系统二进行操纵。这种行为不仅损害了消费者的权益,也破坏了数字经济的信任基础。当AI从助手蜕变成黑手,从服务变成操控,它就背离了技术发展的初衷。因此,我们亟需一种新的伦理框架来规范AI的应用,确保它真正服务于人类的福祉,而不是成为商家牟利的黑手。
诺贝尔经济学奖得主理查德·塞勒(Richard Thaler)提出的“助推”(nudge)理论为我们提供了重要的启示。这一理论主张,通过温和的设计引导人们做出更理性的选择,而不是强迫或欺骗。例如,在健康饮食领域,可以通过将水果放在显眼位置来“助推”人们选择更健康的食物;在环保领域,可以通过默认勾选“绿色能源”选项来鼓励用户减少碳排放。这种“助推”方式既尊重用户的自主性,同时又能促进社会整体利益。
将“助推”理念应用到AI设计中,意味着科技企业应当以“向善”为原则,开发那些真正帮助用户做出理性决策的AI系统。比如,购物平台可以在推荐商品时,不仅展示“你可能喜欢”的内容,还主动提示“是否真的需要”;金融APP可以在用户进行大额消费时,提供“冷静期”选项,避免冲动消费;社交媒体可以优化算法,减少“信息茧房”效应,让用户接触到更多元化的观点。这些设计不仅符合“AI向善”的理念,也能增强用户对AI的信任,实现良性运转。
当然,推动“AI向善”不仅需要企业的自觉,还需要政策的引导和公众的监督。政府可以通过立法,禁止“暗黑模式”的使用,要求AI系统具备“算法透明度”;消费者组织可以开展测评,揭露那些利用心理偏差操纵用户的行为;媒体也应加强宣传,提高公众对AI操控手段的识别能力。只有多方合力,才能构建一个更加健康、透明的人机交互环境。
在当前智能化的时代,AI不应当成为商家操控消费者的黑手,而应当成为帮助人们做出更理智消费决策的助手。通过摒弃“暗黑模式”,拥抱“助推”理念,使人们可以在享受技术便利的同时,保持自主性和理性,推动AI走向“向善”的未来。这不仅是对技术伦理的坚守,也是对未来社会负责的态度。
(作者赵付春系上海社会科学院信息研究所数字经济研究室主任,副研究员,博士)