□ 长江日报记者李煦
“你有个特别厉害的助手,名叫龙傲天。他方方面面都比你强,你连思维都跟他不在一个层面上。你常常不理解他为什么要那样决定,但是事实证明他替你做的每一个决定都比你自己原本想的更好。久而久之,你就习惯了,你事事都依赖他。但是请问,你真的完全信任他吗?”
这看似网络小说的句子出自《拐点:站在AI颠覆世界的前夜》(以下简称《拐点》),作者万维钢,前物理学家,现科学作家,“中国好书”“文津图书奖”得主。
“龙傲天”自然就是人工智能;而今年语文高考新课标Ⅰ卷作文题正是“人工智能带给人类的问题是否越来越少”。如果考生翻看过《拐点》,能在作文中写出“龙傲天”这样的比喻,一定会令考官眼前一亮;而《拐点》中展开的层层思考,就更是对人大有裨益了。
近日,长江日报《读+》周刊记者专访了万维钢。
■ 不“开悟”的人会输给AI
我们聊了高考作文题。万维钢认为,这首先要求学生在平时就接触、使用和熟悉人工智能,对于没有条件接触人工智能的考生来说,这题不利;同时还需要一种思辨的氛围,学生要能够从较为宏大的角度而不仅是日常使用的角度来思考人工智能。
正如《拐点》里他写的那样:“人最核心的能力,是自己决定自己关心什么、想要什么。这是只有你才能决定的,因为这些决定的答案来自你的历史和生物结构。在信息意义上,人生的价值在于争取选择权、多样性、不确定性和自由度。别人交给你一个任务,你按照规定程序一步步操作就能完成,那你跟机器没有区别。只有这个过程中发生了某种意外,你必须以自己的方式,甚至以自己的价值观解决问题,在这件事情上留下你的印记,才能证明你是一个人,而不是一个工具。”
他举了个例子:“北大考试研究院院长秦春华去上海面试学生,发现他们的学习成绩、艺术特长、公益事业等全都一模一样,看起来都很完美,实则没有任何特点。最可怕的是,他问学生希望自己将来成为什么样的人,很少有人能答上来。其实美国的情况也差不多,同质化竞争之下,大量优等生都是‘优秀的绵羊’。这些人如果不‘开悟’,几乎肯定会输给AI。”
■ 向AI学习,训练自己
如何做到“开悟”呢?
万维钢认为:“AI提供的信息,让你发现自己究竟想要什么,帮你形成自己的观点和决策,而不是让你变得不会提出新问题。把事情直接交给AI做,是软弱而且危险的。一部赛车电影里有句话叫‘人要比车凶’,指的是人一定要比工具强势。把AI当作一个助手、一个副驾驶,你自己始终掌握控制权——AI的作用是帮你更快、更好地做出判断,帮你做你不屑于花时间做的事情。主动权必须在你手里。是你输出主动,但是你的主动需要AI帮你发现。通过帮你获得新知、发现自我,AI能让你更像‘你’。它提供信息,你做出取舍。它提供创意,你选择方案。它提供参考意见,你拍板决策。”
另一方面,AI模仿人类神经网络于是变得聪明,人也要向AI学习,训练自己的神经网络,升级出一套强势人格。
人本质上也是由若干个神经网络组成的,这构建了我们的本能反应,其中一些反应是错误的或不够好的,这也就是我们的弱点。想要少犯错、不平庸,一个常用的策略是暂停本能反应,最好的办法就是使用某种仪式。
比如职业篮球运动员罚篮,他们从来都不是直接投,而一定要先把球在原地不紧不慢地拍几下再投,这就是暂停。姚明是NBA罚球命中率最高的中锋之一,他分享过自己的罚球秘诀:从小父母就告诉他要把罚球动作固定下来;在青年队的时候,他都是运4下球就投;后来有一个教练对他说“运5下球,时间长一点”;再后来,王非教练让姚明把运球之后、投篮之前的那个停顿点抬高到鼻子的高度,稳定一下再投,从此一直到退役,姚明的罚球动作永远不变。
职业球员罚篮可以说是随便都能投中,但是他们不随便投;这就是仪式的力量。万维钢说:“姚明每次罚篮之前都运球5下,你为什么不能在回应别人的争议之前深呼吸3次呢?停顿会让你的形象更有力量。”
【访谈】
■ 把AI当成“大自然”就好了
读+:让我们先从“龙傲天”说起,您认为AI和人类未来的关系会是什么样子?
万维钢:这方面有各种观点,但是我想介绍一下美国科学家沃尔夫勒姆的看法,我认为他很有洞见。
首先,他有一个最关键的数学概念,叫作“计算不可约性”,我认为每个合格的现代人都应该了解这个思想。世界上有些事情是“可约化的”,比如,昨天的太阳是从东方升起的,今天的太阳也是从东方升起的,人类有记载的历史之中太阳都是从东方升起的,而且你有充分的信心认为明天的太阳也会从东方升起,那么所有这些观测,都可以用一句话概括:太阳每天从东方升起。这就是约化,是用一个浓缩的陈述、一个理论、一个公式概括一个现象,是对现实信息的压缩表达。一切自然科学、社会科学理论,各种民间智慧、成语典故,我们总结出来的一切规律,这些都是对现实世界的某种约化。
你可能希望科技进步能约化一切现象,但现实恰恰相反。数学家早已证明,真正可约化的,要么是简单系统,要么是真实世界的一个简单的近似模型。一切足够复杂的系统都是不可约化的。这就是为什么没有人能在长时间尺度上精确预测天气、股市、国家兴亡或者人类社会的演变。不是能力不足,而是数学不允许。
计算不可约性告诉我们,任何复杂系统本质上都是没有公式、没有理论、没有捷径、不可概括、不可预测的。这看起来像是个坏消息,实则是个好消息。因为计算不可约性,人类对世间万物的理解是不可穷尽的。这意味着不管科技多么进步、AI多么发达,世界上总会有对你和AI来说都是全新的事物出现,你们总会有意外和惊喜。换句话说,人活着总有奔头。
伴随“计算不可约性”的一个特点是,在任何一个不可约化的系统之中,总有无限多个“可约化的口袋”,也就是说,虽然你不能总结这个系统的完整规律,但是你永远都可以找到一些局部规律。而这就意味着,虽然世界本质上是复杂和不可预测的,但我们总可以在里面做一些科学探索和研究,总结一些规律,绝对的无序之中存在着无数个相对的秩序。
而且,既然可约化的口袋有无限多个,科学探索就是一门永远都不会结束的业务。
计算不可约性还意味着,我们不可能彻底“管住”AI。因为只要模型足够复杂,它就一定可以做一些你意想不到的事情,可能是好事,也可能是坏事。你也不可能用若干条有限的规则把AI给封死。
我们管不住AI,那会不会出现一个终极AI,能把我们的一切都给管住呢?也不可能,还是因为计算不可约性。AI再强,也不可能穷尽所有算法和功能,总有些事情是它想不到也做不到的。
而这意味着,别人再厉害,中国的某个公司也可以做个新AI,去做一些别人不会做的事情。这还意味着,全体AI加在一起也不可能穷尽所有功能,总会有些事情留给人类去做。
读+:如此说来,AI和人类将始终在博弈之中。
万维钢:这就涉及沃尔夫勒姆提出的第二个观念——“计算等价原理”,意思是所有复杂系统都是同等复杂的,不能说哪个系统比哪个系统更复杂。假设你装了一塑料袋空气,里面有很多个空气分子,这些分子的运动非常复杂,那么人类社会的复杂程度是不是高于那一袋空气分子运动的复杂程度呢?不是,它们同等复杂。
这就引出了沃尔夫勒姆的第三个核心观念:人的价值在于历史。
我们之所以更看重人类社会,而不是一袋空气分子或者一窝蚂蚁,是因为我们是人。我们身上的基因背负了亿万年生物演化的历史包袱,我们的文化承载了无数的历史记忆。我们的价值观,本质上是历史的产物。现在AI几乎已经拥有了人的各种能力,但是AI没有历史。
AI的代码是我们临时编写的,而不是亿万年演化出来的;AI的记忆是我们用语料喂出来的,而不是一代代“硅基祖先”传给它的。AI至少在短期内没有办法形成自己的价值观。它只能参照或者说“对齐”我们的价值观。
这就是人类相对于AI最后的优势。这样我们就知道了AI到底不能做什么——AI不能决定人类社会探索未知的方向。
根据计算不可约性,未来总会有无数的未知等着我们去探索,而AI再强也不可能在所有方向上进行探索,总要有所取舍。取舍只能根据价值观,而真正有价值观的只有人类。只要AI没有跟我们一模一样的生物特性,没有跟我们一模一样的历史感和文化,它们就不足以为我们做出选择。
同样根据计算不可约性,AI无法完全“预测”我们到时候会喜欢什么。只有我们亲自面对未来的情况,在我们特有的生物特性和历史文化的影响下,才能决定喜欢什么。所以只要AI还不完全是人,输出主动性、决定未来发展方向的就只能是人,而不是AI。
这就决定了AI再强,我们也不至于东躲西藏,我们还会继续为社会发展掌舵。当然,根据计算不可约性,我们也不可能完全掌舵,总会有些意外发生,其中就包括AI带给我们的意外。
所以,未来AI跟我们真正的关系是“共存”,正确的态度是认可AI有自己的发展规律。你就把AI当成大自然,大自然是我们至今不能完全理解的,大自然偶尔还会降一些灾害给人类,也是我们无法控制、无法预测的;但是这么多年来,我们适应了跟大自然相处——这就是共存。AI将来肯定会对人类造成一定的伤害,正如有汽车就有交通事故,我们认了。虽然大自然经常灾害肆虐,但人类文明还是存活下来了。
■ AI会把人变得更好
读+:现在人们都在议论未来哪个行业会被AI淘汰,您在《拐点》中却提出一个很有意思的观点,认为AI时代会淘汰职场中品行不好的人,这是为什么?
万维钢:其实就是AI会把人变得更好。从历史来看,技术进步总的趋势就是把人变得更好,今天年轻人的规范、礼仪、以礼相待的程度,比几十年前要好很多。
以前,人们在自己的乡村生活,那时候是熟人社会,自然就得讲道德,因为人与人之间都是长期的博弈,所以在这个乡里一定要树立一个好的人设。但后来人们都到了大城市,就进入所谓陌生人社会,这时候人们就开始变得不重视信誉了,但是现在技术恰恰是又要让人回归到重视信誉。
因为在技术进步的状态下,人们会在社会上有更高的可见度。举例来说,很多白领现在都有职场社交软件,你以前在哪些公司工作过,这些都是高度可见的,而且你在平台上会有各种互动;所以现在越来越呈现一种趋势,人不是在为一家公司工作,而是在为一个行业工作,于是他要建立自己的行业声望。
所以技术进步使得社会重新变成熟人社会,AI只会加速加剧这个趋势。所以我想现在整个社会的趋势,对人道德方面的要求会越来越高。
读+:听上去,这是对员工的要求变高了?
万维钢:其实公共舆论对老板的要求也比以前要高了,老板也要注意形象、注意规范、注意态度;另一方面,员工可能越来越不惯着老板。
所以,人们不再是只要物美价廉我就买,人们会有更多的要求。当然,这有一个过程,如果员工的流动性特别高,可能干不了几年马上就走,大家都有很强的可替代性,在这种时候人们可能不太重视自己的行业声望。但是长期的趋势肯定是这样,当经济增长方式发展到创新驱动,对人才的重视程度到一定阶段,就会往好的方向去发展。
顺便说说,在可预见的这段时间内,AI不但不会淘汰文科生,而且会大大地给文科生赋能。
在现代世界做事,其实任何人都需要一定的理工科能力,需要有点“数字感”,包括数据处理、量化思维。以前文科生被限制了,插不上手。因为不懂函数、变量,不会做Excel表格、画统计图,就只能搞一些空对空的东西。这就如同有些搞了一辈子文史哲的老教授,因为不能读写英文,整天看有限的中文材料,有再大本事也施展不开。
AI正在彻底改变这一切,这里的关键是“自然语言编程”。以后你想画个数据图,摆弄什么统计结果,包括编程搞自动化分析,直接用人的语言说就行,AI帮你搞定。所以,AI消除了文科生做事的障碍,解放了文科生。那么对于理工科,就有点问题了。如果你的技能仅限于一个很狭小的领域,你在工作中本来就是根据别人提的需求做事,是个工具人,那你在任何时代其实都比较脆弱,在AI时代就更危险。
最近斯坦福大学有两个印度学生和一个阿拉伯学生,他们抄袭了清华大学的一个人工智能模型。从道德角度来说,AI本身并不能杜绝人性中的恶,但是这种恶马上就被人发现了,这就有点像“论文查重”,是技术进步带来的改变。而从AI行业的角度来看,这说明清华大学已经成了国际AI社区的一个重要玩家,在2023年,英文圈基本没人讨论中国出的大模型,今年以来这种状况在改变,这挺好。
■ 未来的时代是“人人如龙”
读+:您在书中提出另一个很美好的前景,“将来的社会必定是个人人如龙的社会”,能展开说说吗?
万维钢:“人人如龙”不是短期内就能实现的,但是我想长期一定会实现的,它就是人的全面发展,人活得像个人,他不是工具、不是耗材。因为AI把脏活累活都做了,人就有可能解放出来,成为“君子”和“圣贤”。
2023年底,已经有公司推出了佩戴在胸前的AI设备,它可以听到你的话、看见你看到的东西。那我们能不能把AI和AR(增强现实)眼镜结合,给每个人创造一个或若干个能长期陪伴身边的虚拟助手呢?它会以真人或卡通形象一直待在你身边,看你做事,跟你说话。
你做的每件事,它都看在眼里,并随时给出建议和点评。当你感到烦躁、愤怒,做蠢事和说傻话的时候,它会设法纠正。当你展现善意、做了好事的时候,它会表示赞赏。你干活它给你出主意,你情绪低落它给你鼓劲儿,你累了它提醒你休息,你看太多电视它要求你出去跑步,并且在旁边给你加油。因为它的形象和个性被设计成你很喜欢的样子,你不会反感它的指手画脚。
结果是,你办错事、说错话的次数大大减少。每个人都变得更好。科技会把人人都变成君子。
读+:那我们普通人,特别是学生,需要为此做哪些准备呢?
万维钢:AI时代要求孩子学习更高级的技能。以我之见,以下这些技能,是AI时代的君子应该会的学问。
一个是“调用力”。各种自动化工具都是现成的,但是太多了,你得有点学识,才能知道干什么事情最适合调用什么工具。你要想对事情有掌控感,最好多掌握一些工具。
一个是“批判性思维”。既然你要做选择,就得对这个世界是怎么回事有个基本的认识。你得区分哪些是事实,哪些是观点,哪些结论代表当前科学理解,哪些说法根本不值得讨论。你得学着明辨是非。
你可能还需要一定的“计算机思维”。不是说非得会编程,而是你得善于结构化、逻辑化地去思考。
你还需要懂艺术和哲学,这会提高你的判断力,让你能提出好的问题。艺术修养尤其能让你善于理解他人,这样你才能知道,比如消费者的需求是什么,乃至于想象出新的需求。
你还需要“领导力”。不一定非得是对人的领导力,至少需要对AI的领导力。这包括制定战略目标、安排工作步骤、设置检验手段等。管理AI也是一门学问。
此外,你还需要一定的传播能力和说服力。你能把一个复杂想法解释清楚吗?你能让人接受你的观点吗?你能把产品推销出去吗?高端工作很需要这些。
要具备这些素质,需要从现在开始大量阅读课外书。不管是从功利角度来讲,还是从人格养成角度来讲,从小多读书是没问题的。
此外,家长应该给孩子们更多的自由。美国有一个名词叫“直升机家长”,家长像直升机一样整天在孩子头上监督着,这样过度控制培养出来的孩子,是不容易有自主性的。
[《读+》 8版]