“对齐颗粒度”,你如果是职场中人,很可能听过这句话,即要求团队成员保持清晰的信息同步和共同认知,带有轻松的调侃意味。
AI领域强调的“人机对齐”显然复杂和严肃得多,意思是让AI的目标,与人类的目标与价值观保持一致,这是目前人工智能领域,最重要的课题之一。
长期关注计算机科学前沿动态的作家布莱恩·克里斯汀去年出版了《人机对齐》一书,他表示:“机器学习表面是技术问题,但越来越多地涉及人类问题。高度警惕在数智化的进程中,伴随技术自主性的日趋增长所形成的技术闭环是否会导致人在技术回路中的脱轨或曰被抽离问题。”
事实上,现实世界已经有了很多例子:没有价值对齐的AI大模型,输出了含有种族或性别歧视的内容,帮助网络黑客生成网络攻击、电信诈骗的代码,尝试说服或帮助有自杀念头的用户结束自己的生命……
AI没有与人类同样的关于生命的价值概念。在这种情况下,AI的能力越大,造成威胁的潜在可能性就越大。如果没有价值对齐,我们就不会真正信任AI,人机协同的AI时代也就无从谈起。
那么问题来了,人机按什么价值标准来对齐,会不会导致文化霸权和人类之间的价值观冲突?本期《读+》封面专访上海交通大学教授闫宏秀,她给出了深入调查思考后的答案。
王永芳