你被“算法”歧视过吗?

你被“算法”歧视过吗?

隐藏在“大数据杀熟”背面的商业逻辑,其实可能还有数智平台的“算法歧视”。

1、数智经济的“算法中性”

一些数智平台会通过“算法”和“数据”计算出,哪些人具有“较低的商业价值”,哪些人具有“较高的商业价值”,然后“看人下菜碟”,给他们提供不同规格的“套餐”。

一般情况下,平台的服务会更偏向于高价值人群,或者偏向愿意付更高价格的人群,这是一种市场化的商业逻辑,我们可以把它叫做“算法偏性”,这种一般还不属于算法歧视。

因为,各种数智平台因为商业化考量,要做到“算法中性”是非常难的,它们要生存和或得商业利润,天然会把商业资源给到愿意出高价的人群。

不仅数智平台,数智产品也如此。

产品的设计一定是对一些人友好,对另一些人不友好的,一款手机在“相机”功能上,堆叠太多的精密硬件和高性能芯片,真的每个人对“相机”都有高需求吗?并不是,但企业的商品很难做完全中性的设计,顾及到所有人的利益。

所以一款数智产品也好,一个数智平台也罢,不太可能对所有人都友好,做到完全的“算法中性”或“商业中性”。

但即便如此,公共服务平台还是有责任做到“算法中性”。

因为作为公共服务的数智平台,如果也走“市场化”和“商业化”的路线,也对人群进行“高价值”与“低价值”的区分,就会得来公共服务的歧视,它们的服务可能会向高价值人群倾斜,而表现出对低价值人群的不友好。

2、数智经济的“算法平权”

“算法平权”则与“算法中性”是两个完全不同的概念。

“算法中性”只是一种商业经营理念上的问题,而“算法平权”却是商业道德伦理甚至是法律层面的问题,涉及到消费者公平、市场公平竞争等问题。

算法不平权,就会带来“算法歧视”,它一般是指平台为了获得“不合理、不合法”的商业利润,在提供相同服务基准的前提下,在算法设置中却对同一地区的用户群体提供了“差别化定价”“差别化权益”等行为。

比如,同样的数智服务,给客户A的定价是100元,给B的定价却是200元,这里剔除获客成本的差异(假如差别是5元钱),那另外的95元就是大数据杀熟的算法不平权,企业赚到了“算法歧视”的不合理利润。

这种歧视属于“超性歧视”,也就是对“高价值客户”的算法歧视;

与之相对应的,还有“亚性歧视”,就是对“低价值客户”的歧视。

比如,同样的数智服务,A先下订单,B后下订单,然后平台通过算法把订单优先锁定给后下订的B,而不给先下订的A,因为平台经过计算发现,B比A更有商业价值,给B可以获得更多的利润,这种行为也涉嫌“算法歧视”,因为没有做到对顾客一视同仁,不仅有失市场公平、涉嫌宰客,还属于典型的“囤积居奇”行为。

最近,有一位旅客发现,他买5月1日的高铁票,从武汉-天津是没有票的,但他多买了一站“武汉-唐山”就有票了,很多网友也发现,遇到过同样的问题,平台的算法有意识地把票额,给到了长途的旅客,所以大家就对12306的这一做法提出了质疑,被认为纵容买短乘长。

那么,12306被质疑纵容旅客“买长乘短”,是否涉及到“算法歧视”,或偏离了“算法平权”呢?

首先,高铁数智订票平台是一种公共基础设施,它不是简单的企业商业行为,应该秉持“算法中性”和“算法平权”的商业设计。

所以,这得从“商业论证”层面来考虑,如果这种行为是经过公共政策专家论证过的,认为把票截留给长途旅客的做法,可以“提高旅客购票机会均等”的公平性或提高公共服务效率,则这种行为就是值得鼓励的,反之,就需要进行公共讨论了,毕竟,如果是这种做法有违算法平权,就会伤害到很多人的公共利益。

12306肯定有他自己的算法考量,可能是商业化方面的,也可能是效率方面,还有可能是考虑旅客公平方面的,这背后的算法逻辑我们现在不是很清楚的,科不科学、合不合理,还需要12306进一步的解释,甚至公布“论证材料”。

小结

未来,是一个数智经济社会,整个社会都依靠各种算法来运行,如自动驾驶就是算法。如果算法本身对一些人不友好,或者构成歧视,就会产生社会的不公平,所以算法的设置就需要一种“平权思维”,不能对一些人不友好,或者有很多歧视,否则,一个人这里被算法歧视了一点,那里又被算法歧视一点,最后他可能就在社会上寸步难行了,成为了数智社会的边缘群体。

“先进生产力需要与之适应的先进生产关系。”数智平台是先进生产力,它也需要建立好的生产关系,类似12306这样的数智订票平台,如何与用户建立“和谐、适恰”的先进生产关系,相信未来也需要一番公共讨论的磨合。

同时,未来数智经济发达的国家,也应该制订“数智平权法案”,以监督和约束数智平台型企业的算法歧视问题,尤其是公共性的数智基础设施。

全部专栏