20人有人的用处
你好,这里是《万维钢·AI前沿》课。这是咱们课程的第二
次加餐。我会跟你讲讲AI时代人的作用;再用一讲课程跟
你分享几个我平时对AI的用法。
好,我们正式进入这一讲的内容,题目是人有人的用处。
在自动化机器的时代,人到底还有啥用,这个问题其实很早
以前就有人思考过,而且得出了经得起时间考验的答案。
早在1950年,控制论之父诺伯特·维纳(NorbertWiener,。
1894一1964)就出了本书叫《人有人的用处》,认为生命
的本质,其实是信息:我们的使命是给系统提供额外的信息。
维纳这个观点直接影响了克劳德·香农(ClaudeShannon,
1916一2001)。香农后来发明了信息论,指出信息含量的
数值,就是在多大的不确定性中做出了选择。我根据香农的
信息论写过一篇文章叫《一个基于信息论的人生观》,讲在
信息意义上,人生的价值在于争取选择权、多样性、不确定
性和自由度。
别人交给你一个任务,你按照规定程序一步步操作就完成
了,那你跟机器没有区别。只有这个过程中发生了某种意外,
你必须以自己的方式、甚至以自己的价值观解决问题,在这
件事情上留下你的印记,才能证明你是一个人,而不是一个
工具。
你看,这些思想跟上一讲中沃尔夫勒姆用计算不可约性推导
出来的道理是相通的:人的最根本作用,是选择未来发展的
方向。如果让我补充一句,那就是人必须确保自己有足够多
的选项和足够大的选择权。
怎么做到这些呢?
首先是约束AI。科幻小说家艾萨克·阿西莫夫(Isaac
Asimov)有个著名的「机器人三定律」,规定一一
第一,机器人不得伤害人类,或坐视人类受到伤害;
第二,机器人必须服从人类的命令,除非该命令与第一定律
有冲突;
第三,在不违背第一或第二定律的前提下,机器人可以保护
自己。
这三条定律好像挺合理,先确保了人类的安全,又确保了机
器人有用,还允许机器人自我保护…那你说我们能不能就用
这三条定律约束AI呢?阿西莫夫想的挺美,但是可操作性
太低了。
首先,什么叫“不伤害”人类?如果AI认为暴力电影会伤
害人的情感,它是不是有权不参与拍摄?为了救更多好人,
把一个犯罪分子抓起来,算不算是伤害?现实是很多道德难
题连人都没搞清楚,你怎么可能指望AI搞清楚呢?
机器人三定律更大的问题是把判断权交给了AI。现实中不会
有任何公司会这么做。事实上,各国研发AI,优先级最高的
应用就是武器,比如攻击型无人机或者战场机器人一一开什
么玩笑,这可是国防部的项目,伤害不伤害是你一个AI能
说了算的吗?
而最根本的问题,还是沃尔夫勒姆的计算不可约性。凡是能
写下来的规则都不可能真正限制住AI,这里面肯定有漏洞,
将来肯定有意外。
那你说,就算道可道非常道,可我们人类社会还是有各种法
律啊。没错,比如我们有宪法,我们承认宪法不可能穷尽国
家未来发展会遇到的所有情况,所以我们保留了修改宪法的
程序。理想情况下,对AI的约束也应当如此:我们先制定
一套临时的、基本上可操作的规矩让AI遵守,将来遇到什
么新情况再随时修改补充,大家商量着办。
但这么做的前提是将来你告诉AI规则修改了,AI得真能听
你的才行。
计算不可约性意味着我们对AI的掌控最多只能是动态的,
你无法一劳永逸地给它规定死,只能随时遇到新情况随时调
整。可是我们前面讲了,AI有它自己的思维方式,如果我们
都不能理解AI,又怎么能确保掌控AI呢?
沃尔夫勒姆的判断是,认命吧。人根本不可能永远掌控AI。
正确的态度是认可AI有自己的发展规律,你就把AI当成大
自然:大自然是我们至今不能完全理解的,大自然偶尔还会
降一些灾害给人类,像什么地震、火山爆发,也是我们所无
法控制也无法预测的,但是这么多年来,我们也适应了跟大
自然相处…
这就是共存。AI将来肯定会对人类造成一定的伤害,正如有
汽车就有交通事故,我们认了。
虽然大自然经常肆虐,但人类文明还是存活下来了。沃尔夫
勒姆说,其中的根本原因是大自然的各种力量之间、我们跟
大自然之间,达成了某种平衡。那么我们将来跟AI的关系
也是这样。我们希望人的力量和AI的力量能始终保持大体
上的平衡,AI和AI之间也能互相制衡。
而计算不可约性定理支持这个局面。将来不会有什么超强AI
一统江湖的,正如历史上从未有过万世不易的独裁政权。可
能在某些短期内,会出局部的失衡,带来一些灾祸,但总体
上大家的日子总能过下去……这就是我们所能预期的最好结
果