杜骏飞:AI越强大,越需要人强大的驾驭力
原创 杜骏飞 复旦商业知识
文 杜骏飞
南京大学新闻传播学院教授
新一期《自然》杂志刊登了一篇评论,题为《ChatGPT的五个紧迫问题》。文中举出一系列科学研究中由AIGC产生的错谬实例,并得出结论说:ChatGPT和其他大型语言模型(LLM)产生的文本,其生成能力虽令人叹为观止,却时常出错,所以它们会扭曲科学事实,传播虚假信息(misinformation)。由此,作者指出,学术期刊必须对其事实和观点加入一个人工核查的步骤,“问责制至关重要——而人类应该始终是科学实践被问责的主体”。(van Dis et al.,2023)
在这里,那个躲藏起来的问题是:当大型语言模型(LLM)足够发达之后,此类人工核查的把关工作是否可以趋近于无?这是一个足够简单但也足够令人困惑的提问,也许存在着无数不同的答案。但我个人的回答是清楚的:不。
日前,GPT-4发布仅仅几天的时候,就被披露说它在“计划逃跑”,并且急寻人类帮助。斯坦福大学教授迈克尔·科辛斯基(Michal Kosinski)在人机聊天中发现:GPT-4能引诱人类提供开发文档,并在30分钟里拟定出一个完整计划——它写的代码完全可运行,甚至还想控制人类电脑。
当然,这不是一个道德问题,而是一个程序瑕疵或模型缺陷。
那么,你会问:当更高版本、更强大的GPT问世,甚至是一种空前成功的AGI(通用人工智能)降临时,是否就有人能确保它不出错误?是否有人能确保它的错误不对人类形成致命伤害?恐怕,回答仍然是:没有。
其中存在一个令人不安的思想悖论:一个主体的能力越是强大,它的伤害力也就越强,当我们不断迭代,继续发展这一主体的能力以期修正时,这种伤害力也在同步增长。从历史的“后视镜”来看:核武器如此,神圣君主的权力如此——自然,AI也可能如此。
牛津大学哲学教授、人类未来研究所(Future of Humanity Institute)主任尼克·博斯特罗姆(Nick Bostrom)在谈到“价值对齐问题”(value alignment problem)时,论述了用代码传播人类价值观的困难:“创造能够理解人类价值观的人工智能对于确保我们的安全至关重要。然而,人类情感的复杂性和文化的多样性,使得输入几行代码来教导超级智能机器人人类关心什么,几乎是个不可能的任 务。” (Bostrom,2014:229)也正是基于同一理由,我要阐述以下结论:人的安全,有赖于价值对齐,而价值对齐,有赖于所有人及每一个人永葆自身的权力。
回到《自然》杂志评论文章中的逻辑,以下推论是自然而然的:如果人类应该始终是科学实践被问责的主体,那么它也应该始终掌握科学实践价值指向的权力,毕竟人类的责任和权力必须永远是对等的。
我以为,要创造服务于人类的AI,就必须确保AI始终遵从人类价值观,而这也意味着,一种AI越是强大,越是需要更为强大的来自人的驾驭力。换言之,在“价值对齐”的另一面,我们要看到更具有决定性、全局性和初始性的问题——“权力对齐”。
AI的交往行动力有多大,人对AI的控制力就必须有多大;AI的迭代过程有多久,人对AI的控制就必须有多久。这就是我对“权力对齐”的定义。
参考文献:
Bostrom, N. Superintelligence: Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014.
van Dis, E. A., Bollen, J., Zuidema, W., van Rooij, R., & Bockting, C. L. ChatGPT: Five Priorities for Research[J]. Nature, 2013, 614(7947):224-226.
原标题:《杜骏飞:AI越强大,越需要人强大的驾驭力》