专硕神州

专硕神州

网聚专硕的力量
切换项目
登录后,专硕神州更懂你,内容更有趣
发布头条
分享独家资讯
发布问答
有问题就有答案

陈歆磊:大数据杀熟真的无解吗?| 上海高金FMBA教授洞见

+关注
随着双十一的落幕和多项法规条例的实行,大数据“杀熟”再度被热议。

随着双十一的落幕和多项法规条例的实行,大数据“杀熟”再度被热议。大数据“杀熟”的行为与方式往往具有隐蔽性,监管和维权并不是一件容易的事。

对此,上海交通大学上海高级金融学院市场营销学教授陈歆磊与北京大学汇丰商学院市场营销学副教授曾小铧共同撰文,分享观点。文中指出,大数据“杀熟”的本质是价格歧视。这种价格歧视的方式在传统市场习空见惯,也没什么法律风险。但是,在互联网场景下,这种做法虽然表面上一样,但是本质却发生了改变。

大数据“杀熟”的本质是价格歧视。由于不同消费者对价格的敏感度不一样,支付意愿不同,因此相比单一定价,差异化的定价能给卖家带来更高的利润,也能增加市场的交易量。

单一价格下,如果价格过高,低端客户不愿购买,公司将失去这个市场导致无谓损失。如果价格过低,高端客户在远低于自己支付意愿的价格买入,公司又将损失一笔利润。因此,只有针对高端和低端顾客分别定价,两个群体需求才能获得满足,公司也能因此提高利润。

正因为价格歧视能提高利润,因此商家总是希望在这方面想办法,但是往往法律和公平性等社会准则的约束。例如线上购物兴起后,商家都觉得这是一个实现完美的价格定制的机会。

早在2000年,电商平台亚马逊就开始了类似尝试。当时亚马逊选择了68 张 DVD光盘进行所谓的价格差别测试,对不同顾客显示不同价格。然而这个秘密很快就被亚马逊的顾客发现了,老顾客在论坛上交换价格信息时才发现自己买贵了。其中一位顾客讲述了购买名为“提图斯”(Titus)的DVD时的经历,购买时为24.49 美元,但接下来的一周价格已升至 26.24 美元。之后他去除了电脑上的cookie标签(因为这些标签能将他识别为亚马逊的常客),价格便跌回 22.74 美元。

这意味着亚马逊向首次访问者提供更大的折扣以吸引他们前来,也就是现在我们谈论的杀熟。

由于这种“杀熟”做法是同货不同价,容易被发现,也违背公平性原则,因此一般不太容易实行。因此公司通常的做法是产品线定价,也就是说,针对不同的客群提供不同的产品。

例如对商务旅行客户提供商务舱,而对家庭旅行客户提供经济舱。由于顾客是自主选择商品,这种定价中的关键点是建立防火墙,防止高端客户购买低端产品。防火墙的设立可以依赖价格,也可以依赖产品特征。

从价格的角度,商家为了引导高端客户购买高端产品,往往会给他们提供更大的补贴。这里的补贴是个经济学上的定义,即客户支付意愿与价格之间的差距。也就是说,虽然高端产品价格很高,但是比起高端客户实际的支付意愿,商家牺牲的部分要远大于他们在低端产品上的折扣。

这种价格歧视的方式在传统市场习空见惯,也没什么法律风险。但是,在互联网场景下,这种做法虽然表面上一样,但是本质却发生了改变。这里的核心不同,就在于在互联网上顾客看到的是由算法推送的。

在传统市场,当商家推出不同产品时,顾客可以自己选择。很多时候市场上产品琳琅满目,顾客不可能去一一考察,因此他们会去搜索。搜索会有成本,因此一个理性的消费者在每一步就会考虑给定现有的选项,还有没有必要再搜索下去。如果搜索带来的预期收获大于成本,就进行下去,否则就停止搜索并在现有选项中做选择。这个过程是消费者自主掌控的,商家可以通过提供信息(广告)等方式来诱导消费者将自己的产品纳入考量。

而在互联网上,消费者看到的产品是由算法推荐的。即使他们主动去搜索,敲完关键词,得到的搜索结果还是算法决定的,因此在这个过程中消费者失去了对选择权的完全控制。如果算法给价格敏感度低的顾客只推荐高价产品,也许这些顾客也会购买。但是在传统市场里,这些顾客是既看到了高端产品,也看到了低端产品,然后决定购买高端,因此这两种情况是有本质不同的。一旦算法并非完全站在顾客角度来考虑,顾客就会遭到损失。

2019年脸书(Facebook)曾被美国住房和城市发展部起诉,原因是它让广告商故意按种族、性别和宗教来定位他们的广告。比如,待售房屋的广告向更多白人用户展示,而出租广告则向更多少数族裔展示。原因是脸书的广告工具允许房产广告商从三个优化目标中进行选择:广告的观看次数、点击次数和参与度以及销售量。算法发现向更多白人用户展示购买的房屋可以获得更多参与度,而少数族裔会点击更多的租赁广告。

因此,算法并不会“杀熟”。算法只会根据顾客的数据去判断顾客类型,并依据设定的优化原则而采取行动。如果它猜出某个顾客对价格不敏感,而优化的原则是最大化预期收益,那么算法就会建议高价或推送高价产品。

之所以造成杀熟的现象,只是因为对大部分市场来说,熟客的价格敏感度一般比生客要低,这是个统计上的现实。因此,一旦优化原则与顾客利益,社会共识,甚至法律相违背,就会产生问题。例如上面脸书的例子,虽然广告点击上去了,交易转化率提高了,脸书也把广告费赚了,但是人人都应有的平等的住房选择机会被牺牲了。

说到这里,如何解决杀熟至少在理论上很清楚了。首先,有些敏感信息不纳入算法。其次,明确算法优化原则不与道德和法律相违背。这两件事在操作中都不容易。

首先关于信息。拿掉什么信息呢?如果单单拿掉购买次数是没用的,其它的行为数据一样能猜出价格敏感度。事实上,只要残留的信息能够猜出顾客的价格敏感度,那么给定熟客价格敏感度偏低这个统计事实,大概率还会存在杀熟。于是网上有人建议,既然算法是基于用户的个人行为数据,那就干脆不让商家使用任何的个人数据。然而这么做,意味着所有的个性化推荐将消失,这些公司一夜之间回到从前。而且并不是所有人都抵制个性化的推荐,比如音乐平台的用户仍然希望平台能推送相关的歌曲,或者在买书时参考有相同兴趣的其他买家的清单。

其次是优化原则,这个可能是个更大的问题,而且各个市场的情况不一样,要具体分析。但总的来说,公司的商业模式决定了其算法的优化原则,而很多时候这种原则可能会与顾客价值相违背。例如社交媒体和视频网站需要尽量延长客户停留时间,因此爆出脸书给抑郁症的用户多发跟抑郁相关的内容。同样,如果电商平台是靠卖流量挣广告,那么它们的推荐算法就会倾向于增加市场竞争。对这些问题进行规范需要对其商业原理的深度了解。

不仅如此,在给定的优化原则下,算法会利用一切数据来提高效率。算法不是人,没有什么道德和法律的概念,只会从数据中学习规律。而问题是很多现有的数据中本身可能包含偏见和歧视。例如在前述脸书的例子里,脸书并没有故意要歧视少数族裔,只是因为在优化广告时的决策,正好发现展示量与种族相关。要纠正这样的算法偏见,需要长期的优化和规范。而且人类对偏见的认知也是与时俱进,因此算法的随时更新迭代也是必不可少。

那么,11月1日施行的《个人信息保护法》能够解决大数据杀熟的问题吗?这个法案对大数据杀熟等一系列问题作了规范,其中第二十四条明确规定,个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实施不合理的差别待遇。

笔者认为,这个法案能够有效规制同一产品服务的价格歧视,但是对于算法推送的产品线定价操作起来会比较复杂。

首先,是否允许公司在算法中采用一定的优化原则,例如预期回报最大化?如果允许,那么算法就需要估测顾客的价格敏感度。因为预期回报等于价格乘上在此价格下的转化率,而转化率取决于价格敏感度。这样我们又回到前面讨论的问题了,算法拿什么来预测价格敏感度?不管用什么信息,只要算法能够猜出价格敏感度,而在此市场中熟客又的确价格敏感度低,那么杀熟还是不可避免。

因此真要解决这个问题,除了信息上的控制,还需要规制公司的优化原则。例如在日前刚刚发布的《上海市网络交易平台网络营销活动算法应用指引(试行)》中提到:“不得利用算法仅向消费者提供针对其个人特征选项的搜索结果。平台经营者应用算法根据消费者的兴趣爱好、消费习惯等特征向其提供搜索结果的,应当同时向该消费者提供不针对其个人特征的选项。”

那么怎么做呢?比如是否可以强制公司推送的产品中一半是基于预期回报最大化,另一半则仅仅是转化率(这种情况下低价产品可能胜出)?当然问题马上就来了:这么强制合理吗?对消费者一定有益吗?所以这些都是需要在特定市场,特定商业模式下认真思考的问题,解决方案未必千篇一律。

实际上,商家希望利用用户的历史信息提供个性化推荐,是否真的讨好用户也是不一定的。日本的一个新闻阅读应用程序“SmartNews”,在新闻推荐算法上不是一味推送用户可能更感兴趣的内容,而是推荐他们更“应该看到”的内容,帮助用户冲破“信息茧房”。而且,它还会提醒顾客可以选择不登录阅读,以免带入自己的历史阅读数据。这家公司在今年9月的市场估值已经达到20亿美金。

进一步说,如果用户在是否使用个性化推荐上的意愿不同,我们可否在目前的架构上为用户增加一个选项,让他们在浏览某个网站时自我选择是否被平台“算”还是“不算”。

来源 | 经济学家圈

推荐阅读

猜你喜欢

© 2001-2021 专硕神州 粤ICP备19104725号

广播电视节目制作经营许可证:(粤)字第04902号