基本信息
文件名称:20 人有人的用处.pdf
文件大小:439.03 KB
总页数:12 页
更新时间:2025-04-09
总字数:约4.89千字
文档摘要

20人有人的用处

你好,这里是《万维钢·AI前沿》课。这是咱们课程的第二

次加餐。我会跟你讲讲AI时代人的作用;再用一讲课程跟

你分享几个我平时对AI的用法。

好,我们正式进入这一讲的内容,题目是人有人的用处。

在自动化机器的时代,人到底还有啥用,这个问题其实很早

以前就有人思考过,而且得出了经得起时间考验的答案。

早在1950年,控制论之父诺伯特·维纳(NorbertWiener,。

1894一1964)就出了本书叫《人有人的用处》,认为生命

的本质,其实是信息:我们的使命是给系统提供额外的信息。

维纳这个观点直接影响了克劳德·香农(ClaudeShannon,

1916一2001)。香农后来发明了信息论,指出信息含量的

数值,就是在多大的不确定性中做出了选择。我根据香农的

信息论写过一篇文章叫《一个基于信息论的人生观》,讲在

信息意义上,人生的价值在于争取选择权、多样性、不确定

性和自由度。

别人交给你一个任务,你按照规定程序一步步操作就完成

了,那你跟机器没有区别。只有这个过程中发生了某种意外,

你必须以自己的方式、甚至以自己的价值观解决问题,在这

件事情上留下你的印记,才能证明你是一个人,而不是一个

工具。

你看,这些思想跟上一讲中沃尔夫勒姆用计算不可约性推导

出来的道理是相通的:人的最根本作用,是选择未来发展的

方向。如果让我补充一句,那就是人必须确保自己有足够多

的选项和足够大的选择权。

怎么做到这些呢?

首先是约束AI。科幻小说家艾萨克·阿西莫夫(Isaac

Asimov)有个著名的「机器人三定律」,规定一一

第一,机器人不得伤害人类,或坐视人类受到伤害;

第二,机器人必须服从人类的命令,除非该命令与第一定律

有冲突;

第三,在不违背第一或第二定律的前提下,机器人可以保护

自己。

这三条定律好像挺合理,先确保了人类的安全,又确保了机

器人有用,还允许机器人自我保护…那你说我们能不能就用

这三条定律约束AI呢?阿西莫夫想的挺美,但是可操作性

太低了。

首先,什么叫“不伤害”人类?如果AI认为暴力电影会伤

害人的情感,它是不是有权不参与拍摄?为了救更多好人,

把一个犯罪分子抓起来,算不算是伤害?现实是很多道德难

题连人都没搞清楚,你怎么可能指望AI搞清楚呢?

机器人三定律更大的问题是把判断权交给了AI。现实中不会

有任何公司会这么做。事实上,各国研发AI,优先级最高的

应用就是武器,比如攻击型无人机或者战场机器人一一开什

么玩笑,这可是国防部的项目,伤害不伤害是你一个AI能

说了算的吗?

而最根本的问题,还是沃尔夫勒姆的计算不可约性。凡是能

写下来的规则都不可能真正限制住AI,这里面肯定有漏洞,

将来肯定有意外。

那你说,就算道可道非常道,可我们人类社会还是有各种法

律啊。没错,比如我们有宪法,我们承认宪法不可能穷尽国

家未来发展会遇到的所有情况,所以我们保留了修改宪法的

程序。理想情况下,对AI的约束也应当如此:我们先制定

一套临时的、基本上可操作的规矩让AI遵守,将来遇到什

么新情况再随时修改补充,大家商量着办。

但这么做的前提是将来你告诉AI规则修改了,AI得真能听

你的才行。

计算不可约性意味着我们对AI的掌控最多只能是动态的,

你无法一劳永逸地给它规定死,只能随时遇到新情况随时调

整。可是我们前面讲了,AI有它自己的思维方式,如果我们

都不能理解AI,又怎么能确保掌控AI呢?

沃尔夫勒姆的判断是,认命吧。人根本不可能永远掌控AI。

正确的态度是认可AI有自己的发展规律,你就把AI当成大

自然:大自然是我们至今不能完全理解的,大自然偶尔还会

降一些灾害给人类,像什么地震、火山爆发,也是我们所无

法控制也无法预测的,但是这么多年来,我们也适应了跟大

自然相处…

这就是共存。AI将来肯定会对人类造成一定的伤害,正如有

汽车就有交通事故,我们认了。

虽然大自然经常肆虐,但人类文明还是存活下来了。沃尔夫

勒姆说,其中的根本原因是大自然的各种力量之间、我们跟

大自然之间,达成了某种平衡。那么我们将来跟AI的关系

也是这样。我们希望人的力量和AI的力量能始终保持大体

上的平衡,AI和AI之间也能互相制衡。

而计算不可约性定理支持这个局面。将来不会有什么超强AI

一统江湖的,正如历史上从未有过万世不易的独裁政权。可

能在某些短期内,会出局部的失衡,带来一些灾祸,但总体

上大家的日子总能过下去……这就是我们所能预期的最好结