我们经常说人工智能会带来人类伦理争议,小米事件只不过是开胃菜
在诸多科幻小说,科幻电影畅想未来人类世界,总有一个主题让人类非常困惑,那就是有朝一日,如果机器人得势,如果机器也有了人类意识,那么世界将变成什么样子?
1984年我出生那年,施瓦辛格生涯代表作《终结者》系列开篇之作,背景设定就是这样。

1980年代好莱坞已经有如此酷炫特效,震惊了全球影迷。
40年弹指一挥间,当初很多看似好笑的科幻设定,现在依然看起来扑朔迷离,但人类科技确实进入到了人工智能临门一脚的边缘。
潘多拉盒子打开以后,世界将何去何从,没有人能够知道。
但人类唯一能确定的事儿,就是这个潘多拉盒子似乎终将打开,因为人类文明只能前进,没法后退,更不能停滞不前,否则科技进步带来的增量蛋糕没有以后,存量世界必将陷入灾难,世界大战都在所难免。
现在没有人能够设想人工智能如果真的成熟,可以大规模商用,全方面介入人类社会生产,会是什么样子?
但最近沸沸扬扬的小米事件,提前给人类提了个醒,人工智能可比你们想得要复杂得多,它将给人类社会,以及整个人类文明带来的颠覆也会深刻得多。
小米事件为什么会引发这么多争议,因为它触发了一个悖论。
什么悖论?
让我们回顾一下事故过程,根据数据,车辆在22点44分24秒发出风险提示,发出了减速请求,并开始减速;下一秒,车辆被人接管;再下一秒,就发生碰撞。

前后2秒钟的时间。
事后复盘,我们问一句,如果智驾功能发出预警自动减速以后,驾驶人没有接管,会不会发生这么严重事故?
很可能不会,最多撞上锥桶,还有缓冲。
那咱们再问一句,如果智驾功能发出预警,驾驶人试图接管,而智驾功能强制自动减速,不给人接管的机会,又会如何?
基本上这种情况下,大概率也不会发生严重碰撞。
所以,看出问题出现在哪里了吗?
这其实说明,智驾功能本身就存在悖论。
最大的悖论,就是遇到这种极端场景,智驾功能可不可以有优先权来处置?
也就是智驾功能也好,人工智能也好,相比于人类的操控,到底谁的优先权更大?
你要不要把这个优先权交给机器?
如果你说可以,那就要好好想想,人类将要打开的潘多拉魔盒,有朝一日,人工智能就是可以决定你的生死。因为人工智能优先权比你大。
如果你说不可以,那也要好好想一个问题,那这种情况下,我们搞智驾也好,搞人工智能,是为了什么呢?
问题就在这里,一旦人工智能真的可以代替人类处理某些复杂问题,那么人类该如何自处?
人类的主动权在哪里?
以及出了问题以后,责任到底算谁的?
我们人类文明有个基本逻辑,每一个人的行为,背后都有一个责任主体,每个人为自己的行为负责。所以路上出了车祸事故,最重要事情就是交警要判定责任,然后才能处理后续。
插一句,你看判定责任这一块,也是人来判定,假如将来人工智能真成了,你能接受人工智能裁决你吗?
人类世界有了这个法律准则,有了这个逻辑基础,才能保证运行下去。
那有朝一日,智驾和人工智能真的代替人来操纵,出了事儿,责任到底算谁的?
这就是最大的伦理争议所在。
当然,现在距离人工智能达到这个程度,还为之甚早,可能永远也到不了那一步,也说不定。
但是光是想想这个情况,就足以颠覆现有文明基础。
人类文明进步,一个典型特征就是掌握工具,历史教科书上说,猿类能够学着使用石头作为工具,就成了人和动物的区分。所谓“人猿相揖别,只几个石头磨过”。

人类掌握工具的复杂程度,代表了文明前进的程度。
但人类文明到现在为止,制造的使用工具,都只限于某些特定场景,就是重复性,程序化使用。它就是一个工具,代替人类完成某些劳动,解放人类,比如洗衣机,电饭锅,自动清理机器人...以及所有工业生产领域的机器设备,都是纯粹工具。
工具就是工具,没有意识,没有判断力,就是做简单重复动作,如此而已。
即使是复杂的工具,也只能处理程序化的场景。
要判断人和工具的最大区别,说白了,就是人能够处理复杂多变的场景,无非是处理的能力有高低,处理的结果不同,而工具不能,工具只能处理简单重复动作。
拿智驾来说,说是智驾,其实就是在一条路上,简单重复那些动作。
这里的关键,就是有没有突发情况,有没有特殊变量。
显然,小米事件当中这个事故,因为修路改道,就是变量,然后天黑,夜深,车速那么快,这些都是突发情况的变量。
所以一般来说大家都是在封闭道路上,才敢用智驾,因为封闭道路突发情况很少,相对简单,没有那么复杂突发情况。
人之所以用智驾,其实也是作为一个辅助工具,因为大多数情况下,车辆驾驶都是简单重复动作,时间长了,人觉得疲乏,所以可以接受智驾功能提供某些帮助,作为辅助驾驶。
它就还是一个工具属性。
所以,现在所有智驾功能,不管是L2也好,还是所谓宣传的L2.9,都还是作为辅助驾驶。
辅助驾驶,辅助驾驶,辅助驾驶,重要的事情说三遍。
辅助驾驶的意思,就是明确说明,人还是车辆的操控者,人才是自己行为的最后负责人。智驾它只是辅助你驾驶,但不能代替你驾驶,最后出了事,你是最终负责人,智驾功能负不了这个责,也负不起这个责。
当然,有人说了,现在是智驾功能还不够强,如果真的到了L3,L4,甚至智驾系统能够完全处理所有突发事件,甚至比人处理得更好,真的可以实现无人驾驶了。
那我问你,你敢不敢坐这种无人驾驶的车?
你敢不敢把自己的性命交给智驾,或者说人工智能?
假如你敢,甚至说愿意签署相关法律文件,即使到了这一步,真的出了事儿,最后责任该怎么划分?你觉得法院真敢判你自行承担?
你看,这些都是问题。
归根到底,就是一句话,小米这个事故,那2秒钟时间,智驾功能问你要不要接管?你怎么办?智驾功能说你不能接管,就它来办,然后剥夺了你的主动权,你又该怎么办?
这个事儿,你想得清楚吗?想得明白吗?
这就是将来人工智能给人类文明埋的坑,在那等着呢。
说白了,就是一个主动权的归属问题。
但这个问题不简单啊。
谁拍板谁负责,但问题是拍板的那个负的起这个责任吗?人类能接受让它拍板吗?
都是无解之问,人类文明要如何处理这个伦理难题,恐怕只能是走一步看一步。慢慢适应,慢慢调整,这个过程会很漫长,甚至永远也没法突破。
但是呢,多想想这个问题,也是好事。
小米这次事件吧,算是提前给人类提个醒,也是给人类泼一盆冷水,好好冷静冷静。
尤其是之前铺天盖地各种智驾宣传,什么智驾?就问你一句,那2秒钟时间,到底是人来接管,还是智驾管到底?
整得明白吗?
现在就不可能整明白。
所以,小米这个事件引发这么多争议,某种程度上也是好事,可以促动我们思考更深层次的问题。
这次事故,肯定不是最后一次,未来这种辅助驾驶引发的争议,肯定还会更多,尤其是伴随着人工智能越来越发达,未来出现这种悖论争议会越多。
但人类历史上每次进步,恰恰就是遇到了难题,遇到了麻烦,没有麻烦也就没法进步。
人类历史上,多少次都证明了,不撞南墙不回头。就是有的路走不通了,才得想方设法换条路。
多少次,就是这样不停的试错,才走出了新的路。