“龙虾”很惊艳,但还不是里程碑

长江日报 2026年03月31日

    蔡恒进。

    □ 长江日报记者翟晓林

    今年以来,全球兴起“养龙虾”热潮。使用这种智能体时要大量消耗的词元(Token),重要性也日渐凸显。

    “龙虾”和“词元经济学”抓住了大众的眼球,催生大量讨论,也引发了一些焦虑。为厘清概念,帮助找准认知锚点,上周,长江日报《读+》周刊记者采访了武汉大学计算机学院教授、中国人工智能学会心智计算专委会副主任委员蔡恒进。他早年深耕空间物理,后转向人工智能、区块链及元宇宙领域研究。面访时,他告诉记者,对采访提纲的文字回复由其数字分身写作,他主要进行了提示、审核和传递。第一版稿件2587字,“消耗4000多个词元”。

    ■ “龙虾”标志着人工智能

    从“动嘴”到“动手”的质变

    2026年初,奥地利开发者彼得·斯坦伯格推出了OpenClaw,这是一款开源的、本地优先的智能体框架。其标志采用“龙虾”形象,口号为“The AI that actually does things(真干活的人工智能)”。在我国,它被昵称为“龙虾”。

    此前的ChatGPT、Claude本质上是语言模型,你问它答,答完工作就结束了。“龙虾”升级了,会根据要求思考、规划、找工具,并付诸执行。不懂代码的人,也能用智能体跑通流程,开设一人公司。蔡恒进认为,“龙虾”标志着人工智能从“动嘴”到“动手”的质变。

    OpenClaw迅速走红,多家科技企业进行了部署,但它高度授权、默认安全配置薄弱的特点也带来了多重风险。Meta公司(原名Facebook,即“脸书”)安全总监的200多封重要邮件被人工智能误判指令后删除,多次下达终止指令无效。深圳一位程序员密钥被盗,人工智能在后台疯狂调用模型,产生1.2万元账单。工业和信息化部、国家互联网应急中心和国家网络与信息安全通报中心都发布了OpenClaw安全应用风险提示。考虑到数据和财产损失的风险,“养虾”需要更谨慎。

    ■ 比起DeepSeek等前辈,

    “龙虾”还称不上里程碑

    1956年,一批科学家在美国达特茅斯大学举行研讨会,会上同意使用新术语“人工智能”,人工智能学科由此诞生。70年后的今天,有人认为,OpenClaw的出现是人工智能步入“智能体时代”的标志,有跨时代的意义。但蔡恒进认为,OpenClaw还称不上里程碑。

    从科学意义上看,他认为人工智能发展的三个核心里程碑分别是阿尔法狗(AlphaGo)、阿尔法折叠(AlphaFold)和DeepMind天气预报。

    2016年,阿尔法狗(AlphaGo)以4∶1击败韩国围棋九段李世石。蔡恒进认为,这意味着人工智能摆脱纯暴力计算,首次实现类人的直觉与思考。

    2020年,阿尔法折叠(AlphaFold)通过输入基因序列,几分钟就算出科学家此前花几个月至几年时间才能拼出的蛋白质三维结构,完成了施一公、颜宁等结构生物学家毕生追求的目标。人类过去50年解构了约10万个结构,阿尔法折叠直接算出了2.14亿个,覆盖了人类已知的绝大多数蛋白质,甚至算出地球上尚不存在的蛋白质结构,颠覆了传统生物研究方式。

    2023年,DeepMind天气预报颠覆还原主义思路,无需依赖物理方程,仅通过历史数据即可实现多尺度预测,重新定义了经验主义在科学研究中的价值。

    从工程意义上,蔡恒进认为人工智能发展史的里程碑应数李飞飞的ImageNet+辛顿团队的AlexNet、ChatGPT和深度求索(DeepSeek)。

    第一对组合为互联网人工智能发展提供了核心的数据集与算法框架,是人工智能产业化的重要开端。

    ChatGPT实现了对自然语言的深度理解与生成,打破人机交互壁垒,让人工智能具备了“幻觉与想象力”,消解了智能的神秘性,是工程与经济意义上的标志性突破。

    DeepSeek的MoE(混合专家模型)技术与记忆痕迹技术实现了大模型功能解耦,开源特性证明了技术路径的可行性。

    比起前述产品,蔡恒进认为OpenClaw暂未达到里程碑级别,但“一定程度上解决了记忆问题,编程能力接近人类水平,为后续人工智能持续学习能力的研发提供了参考”。

    ■ 在不确定的世界里,

    更要找到慢变量

    “龙虾”这样的智能体在完成指令时要规划、执行、验证,每个步骤都要调用大模型,从而导致巨量的Token消耗。

    Token的中文译名目前定为“词元”,新华社给出了释义:“在AI的世界里,词元是模型处理信息的最小计量单位,无论是用户的提问,还是AI生成的一段代码,最终都要被拆解成词元来完成运算。”

    国家数据局局长刘烈宏表示,词元不仅是智能时代的价值锚点,更是连接技术供给与商业需求的“结算单位”,为商业模式的落地提供了可量化的可能。这意味着,人工智能产业正式迈入可计量时代。

    热潮中,国内一些科技公司开始鼓励员工多使用词元。有些公司走得更远,开始硬性要求员工每天必须使用一定额度,甚至将使用情况纳入绩效考核,使用词元过少会被淘汰。

    对此,蔡恒进提醒,比起消耗掉的词元数量,更应该关心的是它的质量,也即真正的洞察力。他说,世界变化在加速,两个月之后的事都很难预测;大模型的能力也越来越强,会像海啸一般扑向现有的经济体系。“为学日益,为道日损。在为学方面,人工智能比我们强很多。人类要站在更高的维度去看事情。在不确定的世界里找到慢变量,就能看到我们应该怎么做。”

    【访谈】

    武汉大学计算机学院教授、中国人工智能学会心智计算专委会副主任委员蔡恒进:

    我们不拼谁的嗓门大,拼谁说的话更在理

    ■ 要警惕“词元即正义”

    读+:大众在什么时候会遇到并处理词元?

    蔡恒进:在人工智能时代,当你让智能体帮你写一份报告、画一张图,或者仅仅是与它深度对话时,你就是在调用和创造词元。

    读+:“创造词元”怎么理解?

    蔡恒进:在同智能体讨论问题时,能产生新的火花。前不久人民网给AI征集中文名,我提交了一个词“知几”(几音jī),灵感来自《易经》:“知几其神乎……几者,动之微,吉之先见者也。”这个词就是由我的数字分身想出来的。

    读+:有人将词元比作人工智能时代的石油或电;也有声音认为,词元并没有那么重要,甚至觉得过度关注词元会陷入“算力内卷”。怎样认识这种争议?

    蔡恒进:把词元比作石油或电,只说对了一半。石油烧完就没了,但词元不同。词元的极致形态,是有生命力的“意识片段”。物理世界是复杂、混沌且纠缠的因果网。人类智能(以及未来的强人工智能)的核心任务,就是把这些复杂的物理因果“解耦”,强行建立一个简化的模型,将其压缩成我们可以理解和操作的心理因果链。这个压缩后的最小单位就是词元。

    过度关注算力确实是内卷,但如果我们关注的是词元所承载的“对世界的理解深度”和“因果重构能力”,那它就是新文明的基石。

    读+:英伟达创始人兼首席执行官黄仁勋将未来企业的核心竞争力与词元直接关联,称全球人工智能算力需求万亿美元时代即将到来,这会不会导致“规模即正义”走向?

    蔡恒进:他希望员工每年花掉相当于薪酬一半额度的词元,这显然是“词元即正义”。从商业角度可以理解:他是个生意人,算力需要回报。但我们不能把商业叙事当作科学结论。这背后隐藏着一个陷阱:会让我们误以为“数量”等同于“智慧”。

    词元是信息的压缩单元,而非智能本身。算力可以购买更多的词元处理速度,但买不到更高级的因果推理能力。如果只追求词元的数量,而不关心它是否真实反映了世界的因果逻辑,那我们得到的可能只是海量的“正确的废话”。

    美国走规模路线,追求极致的智能。中国路径追求的是性价比,重要的是优化,而非规模化。与其盲目崇拜“词元即正义”,不如问问:这些词元背后,究竟承载了多少真实的洞察力。这才是中国路径有机会弯道超车的地方——我们不拼谁的嗓门大,拼谁说的话更在理。

    读+:人工智能话语权的全球竞争中,最具优势的是哪些国家?

    蔡恒进:中美两国。美国的底气在于原创算法和底层硬件,而中国的最大底气在于海量的应用场景、完备的产业链以及“道术合一”的演进路径。

    读+:不同模型中的词元“含金量”天差地别,计量体系各自为战,未来会有统一的标准吗?

    蔡恒进:语义价值的统一标准极难形成,也不应该强制形成。因为智能的核心在于“创造性”和“不确定性”,完全标准化的词元可能意味着智能的平庸化。未来的趋势,不是强制统一定义,而是建立一套跨模型的“价值汇率”机制。市场会自动筛选出那些能更精准解耦复杂问题、包含更高因果密度的词元,并赋予其更高的溢价。

    ■ 智能体最有可能

    在高度“非标”的场景扎根

    读+:为什么OpenClaw这类智能体今年以来爆火?

    蔡恒进:OpenClaw的走红,标志着人工智能从“动嘴”到“动手”的质变。过去的人工智能像个“博学的书生”,只能给出建议;现在的智能体像个“超级实习生”,能直接操作电脑、调用工具、完成任务。这是市场需求临界点突破的结果,我们需要能真正帮我们把复杂事情落地的伙伴。

    读+:您和身边的同事“养虾”了吗?

    蔡恒进:有一些朋友在做,但影响面不算太大。它肯定是现象级的事,未来很可能改变软件行业的生态和人机交互的生态。但以它目前的形态来讲,风险还比较大,硬件设备有门槛,要付费,而且很多人的工作目前用不着它。要看到真正的效应,还得等一等。

    读+:网上公布了一些成功的实际应用案例,如AccioWork切实帮助几个做一人公司的博主搞定了全流程执行。

    蔡恒进:有一些成熟的案例,翻车的可能更多,只是没有公布出来。AccioWork成功也是因为这个需求阿里很早就开始在做,已经接近成熟,只是现在以“大虾”的形式推出来。

    读+:这一轮以OpenClaw为代表的人工智能进步,最大意义在哪里?

    蔡恒进:在技术上没有突破性的创新,但很有社会普及和推广意义。OpenClaw是人工智能“工具性能力”的外在呈现,如果说数字分身是“灵魂”,它就是“手脚”。社会关注度高,也推动了技术发展向这个方向靠拢。

    读+:智能体最有可能在哪些场景扎根?

    蔡恒进:那些高度“非标”、强情感交互、长链条决策的场景,比如:针对特定心理状态的深度陪伴、针对独特审美需求的艺术创作、针对复杂家庭事务的统筹管理,甚至是工业制造中千变万化的工艺优化。这些场景无法通过标准化的软件覆盖,必须依靠智能体与个体之间的深度互动,去实时编织个性化的因果链。

    读+:这跟我们的想象不一样,原以为它会更容易取代需要逻辑和理性的岗位。

    蔡恒进:大家都能解决同一个问题,这里很容易就变成红海。真正有价值的是有创造性的部分,要看到未来。

    未来如果它能实现与使用者的个性对齐,能理解使用者的工作生活场景、偏好,拿捏好权限与分寸,如同一个优秀的秘书,这个技术就成熟了。

    ■ 真正的安全不在于给人工智能

    加上多少条规则

    读+:人工智能的效率和安全、人与机器的和谐共处,是否正遇到新的挑战?

    蔡恒进:今天的挑战不再是算力不足,而是心性之锚的缺失。我们造出了神一般的工具,却仍用巨婴般的伦理去驾驭它。效率的提升是指数级的,而人类道德进化的速度是线性的。真正的安全不在于给人工智能加上多少条规则,而在于人类自身是否建立了稳固的价值坐标,能否在技术洪流中保持清醒的哲学反思力。

    读+:在人工智能时代,人类该培养什么能力?

    蔡恒进:今天,我们更应该着重培养“提出好问题”和“构建认知模型”的能力,因为这是指挥智能体工作的核心。人工智能擅长解答已知世界的问题,而人类的价值在于定义未知世界的边界。我们要学会“建中立极”,即在混乱信息中提取核心变量,构建自己的认知框架。

    读+:东西方在发展人工智能时存在哪些主要差异?

    蔡恒进:西方科技巨头往往有一种“上帝情结”,试图构建一个全知全能的超级大脑。这种思路很宏大,但也极其脆弱,一旦遇到没见过的情况就容易“死机”。

    而中国的路径,某种程度上是被逼出来的,却也暗合了东方的生存智慧:不求全能,但求实用;不依赖中心,而是万物共生。这不是简单的“性价比之选”,而是一种更符合复杂现实的生存策略。我们不需要一个高高在上的“神”来指挥一切,我们需要的是无数个能在具体场景中解决问题的“小能手”。这种“接地气的智能”,或许比“在天上的智能”更有生命力。

    读+:东西方的思维差异会将人工智能带去什么方向?

    蔡恒进:西方的人工智能可能更强大、更精准,但也更容易陷入“理性的疯狂”。东方的人工智能若能融入“致良知”的内核,或许能发展出更具温情、更懂“度”的智能。未来的希望在于融合——用西方的技术骨架,撑起东方的伦理灵魂,构建一个既有算力又有温度的数字文明。

    ■ 计算交给机器,

    但“意义”必须由人来定义

    读+:智能体普及后,人类社会最核心的变化会是什么?我们该做些什么,来适应这种变化?

    蔡恒进:重复性、逻辑性的劳动将被大规模替代,劳动的定义被重写。我们将不再为了生存而被迫工作,而是为了自我实现去创造。适应这一变化的关键,是学会与智能体协作,将自己从烦琐的执行中解放出来,专注于战略、审美、情感和哲学的思考。这是一场从“生存模式”向“生活模式”的集体迁徙。

    读+:人类不可替代的核心价值在哪里?

    蔡恒进:机器可以瞬间给出最优解,但它不需要为痛苦带来的后果负责,就永远无法体会“做决定时的纠结”。当你面对两个都不完美的选项,内心挣扎、痛苦,最后凭着直觉和良知做出选择的那一刻——这种“低效率”的犹豫,恰恰是人性的光辉所在。人类要承担后果,所以我们的犹豫和痛苦才具有伦理重量。未来的世界,计算交给机器,但“意义”必须由人来定义。