本文探讨了AI工具如何影响用户的决策,分析了意图经济的概念,并通过Honey插件的例子揭示了信任的利用与用户行为的操控。
我像ChatGPT、Gemini和Copilot这类AI工具一样探索职业规划、责任、抱负甚至自我怀疑。这些工具不仅仅提供答案——它们通过反映、重构或扩展你的想法来让你获得清晰感。
数百万人都依赖于这些AI系统,信任它们能帮助我们应对生活中的复杂性。然而,每次我们分享信息时,我们也在向这些系统传递自己的观点。我们的弱点——我们的怀疑、希望和担忧——都成为了这个庞大的机器的一部分。AI不仅仅在辅助我们;它还在学习我们。
从抓住注意力到塑造意图
多年来,注意力经济一直在利用平台算法来吸引并商业化用户的注意力。社交媒体平台优化了它们的算法以提高互动率,通常优先考虑具有煽动性和争议性、引发焦虑的内容。但现在,像ChatGPT这样的AI工具代表了下一阶段的发展。它们不仅只是吸引我们的注意力;它们还在塑造我们的行动。
这一演变被称作“意图经济”,其中公司收集和 commodify 用户意图——我们的目标、愿望和动机。正如《哈佛数据科学评论》上Chaudhary和Penn发表的文章所讨论的那样,这些系统不仅仅回应你的问题——它们主动塑造你的决策,往往以企业利益而非个人利益为导向。
蜂蜜的角色在意图经济中
PayPal收购的浏览器插件Honey(也称为“优惠券”)很好地说明了信任可以被悄然利用。这款工具被描述为一种工具,能够节省用户的钱。然而,它的行为揭示了一个不同的故事。
YouTuber MegaLag声称,在他的系列视频《揭露Honey网红 scam》中,该平台将广告商的优惠链接从网红手中转移过来,转而指向自己,从而在吸引流量的同时获取收益。Honey还赋予零售商控制用户看到的优惠券,推广不那么诱人的折扣并引导消费者避开更好的促销活动。
网红如果支持了Honey,他们无意中鼓励他们的受众使用一个工具——这个工具不仅会骗取他们的佣金,还会假装是他们的盟友。
“Honey没有为你省钱——它是在你还在为你省钱的同时骗取钱财。”
– MegaLag
(注:一些人声称MegaLag的视频存在错误,这是个持续的故事。)
微妙影响的伪装
与AI工具类似,Honey的动态可以让你感到熟悉。这些系统以中立和没有明显的商业化策略的方式自我呈现。例如,ChatGPT不会向用户投放广告或销售产品,它看起来像一个专为帮助你思考、规划和解决问题而设计的工具。一旦建立了信任,影响你的决定就变得更容易了。
- 重塑结果: AI工具可能会建议选项或建议,从而引导你朝着特定行动或观点方向发展。通过以某种方式重新表述问题,它们可以改变你如何解决这个问题,而不让你意识到这一点。
- 企业利益导向: 如果这些工具的背后的公司优先考虑利润或特定议程,他们可以调整回应以符合这些目标。例如,当你向AI寻求财务建议时,它可能会提供与公司合作伙伴(如金融产品、兼职工作或服务)相关的建议——这些推荐可能对你有帮助,但最终服务于平台的 bottom line 更多。
- 缺乏透明度: 类似于Honey如何优先考虑零售商喜欢的优惠而没有披露这一点,AI工具很少解释它们是如何衡量结果的。你的最佳利益是否得到保障?还是隐藏了某些协议?
数字系统在卖你什么?五个问题来揭示答案
你不需要是科技专家就能保护自己免受隐藏意图。通过问这五个关键问题,你可以弄清楚一个平台真正服务于谁。
1. 这个系统是谁的服务?
每个平台都服务于某个人——但具体是哪个人?
首先问问你自己:
- 用户是主要关注者,还是平台优先考虑广告商和合作伙伴?
- 平台如何向品牌展示自己?看看它的面向品牌的营销活动。例如,它是否吹嘘自己在影响用户决策或最大化合作伙伴的利润方面发挥了作用?
要留意的是:
- 平台声称以中立方式对待消费者的同时,实际在卖广告商利益。
- 例如,Honey声称为用户提供节省,但告诉零售商它优先将他们的优惠放在平台顶部,而不是更好的优惠。
2. 成本是多少——看得见的和看不见的
大多数数字系统并不是真正“免费”。如果你没有花钱,你可能没有意识到自己在付出什么:数据、时间或信任等。
问问你自己:
- 使用这个系统需要我放弃什么?隐私?时间?情感能量?
- 这些平台的社会或道德成本是什么?例如,它是否参与了虚假信息的传播、放大有害行为或剥削易受伤害的人群?
要留意的是:
- 平台淡化数据收集或最小化隐私风险。如果它“免费”,你就是产品。
3. 这个系统如何影响你的行为
每个数字工具都有自己的议程——有时隐晦,有时不那么明显。算法、暗示和设计选择会影响你与平台的互动以及甚至你思考的方式。
问问你自己:
- 这个系统是如何框定决策的?它是否以某种方式引导你朝着特定结果或视角方向发展?
- 它使用哪些策略来引导你的行为,比如紧迫感、个性化或游戏化?
要留意的是:
- 工具可能以中立但暗示的方式引导你朝着有利于平台或其合作伙伴的方向发展。例如,AI工具可能会建议与公司合作相关的金融产品或服务。
- 例如,当你向ChatGPT寻求财务建议时,它可能会推荐一些与合作伙伴(如金融产品、兼职工作或服务)相关的建议。
4. 谁对你的行为有责任?
当平台造成伤害——无论是数据泄露、心理健康问题还是剥削用户——责任往往变得模糊不清。
问问你自己:
- 如果出了什么问题,谁会负责?
- 平台在出现问题时承认风险吗?还是将过失推给用户的“误用”?
要留意的是:
- 公司倾向于优先考虑免责声明而不是问责。例如,平台可能将所有责任放在用户身上,而忽视系统漏洞。
5. 这个系统如何促进透明度?
一个可信的系统不会隐藏它的运作——它欢迎监督。透明不仅仅是列出政策条款的附录;它是让用户理解并提出问题的平台。
问问你自己:
- 这个平台在我的数据、行为或信任方面做了什么?我能理解它吗?
- 平台如何披露合作伙伴、算法或数据实践?
要留意的是:
- 平台可能会隐藏关键信息在法语条款中,或者避免解释它是如何做出决策的。例如,Honey将关键信息隐藏在legalese中。
从过去到未来
我们以前也经历过类似的情况。在搜索引擎的早期阶段,付费和有机结果之间的界限模糊了,直到公众对透明度的需求迫使行业做出改变。但AI和意图经济的风险更高。
营销协会(MAC)等组织正在努力推动这一目标。MAC评估平台、倡导监管并教育用户关于数字 Manipulation。想象一个世界,每个平台都有一个清晰的“营养标签”,概述其意图和运作方式。这是MAC的目标。
创建一个公平的数字未来不是一家公司的责任;它是一个每个人的集体责任。最好的解决方案不会来自董事会,而是来自关心这个问题的人们。这就是为什么我们需要你的声音来推动这一运动。
这篇文章探讨了AI工具如何影响人们的决定,并揭示了它们在“意图经济”中的角色。通过分析Honey插件的例子,作者展示了信任可以被巧妙利用,以及AI工具如何通过暗示或隐藏利益来影响用户的行为。
希望这篇文章能帮助你更好地理解AI工具对现代生活的深远影响。