生成式大语言模型的飞速发展极大推动了交互式人工智能发展和落地应用。但是,大语言模型生成的有害言论和虚假信息,以及它背后的基座模型内置的偏见性和安全性漏洞,引发了社会对人工智能伦理风险的广泛讨论。围绕大型语言模型可能存在的潜在伦理危害、人工智能技术对利益相关者的道德责任、科技公司能否在创新和盈利的同时维护社会道德准则等问题,2013年12月1日中国中文信息学会情感计算专委会组织了《科技向善:大模型从科技到伦理》专题论坛,邀请三位相关领域专家进行相关的报告和研讨。1400余位研究人员线上参加了本次论坛。本次论坛由情感计算专委会主任、哈尔滨工业大学秦兵教授和专委会秘书长哈尔滨工业大学(深圳)徐睿峰教授担任共同主席。
情感计算专委会主任秦兵教授首先从技术、伦理、价值观等几个角度概括了目前生成式大模型存在的风险,并介绍了专题论坛的主旨问题,即如何更好地让大模型服务人类社会的同时,保持对人类社会伦理、道德和价值观的一致。
秦兵教授开场介绍
中国科学技术大学陈小平教授在《大模型:从科学解释到治理挑战》报告中指出,大模型代表的生成式人工智能正在带来历史性巨变,但是在对大模型的测试中发现了大量超常或者反常的奇异现象,依据对人工智能的现有理解无法得到解释。面向大模型科学机制的探索,报告中提出了一种新型形式化系统—类LC。基于类LC推衍系统的三条公理及基本性质,包括实例性、全覆盖性和基于语境扩展的传递性,尝试对大模型近期测试中发现的反常结果进行分析和解释,以探索大模型和人工智能的原理性理解。研究发现基于类LC可以解释大模型的部分奇异现象,刻画了大模型底层机制的基本特性。在此基础上,报告讨论了大模型研究和应用所面临的伦理治理挑战,以及大模型与人类对齐所涉及的相关研究问题。
陈小平教授报告
微软亚洲研究院资深首席研究员谢幸老师在《社会科学视角下的人工智能挑战》报告中指出,人工智能在全球范围内的深入应用,给众多领域内产生的深远影响愈发显著。心理学/社会科学与人类智能存在类似目标,也就是更好地理解人类自身和人类社会。近年来有大量的人工智能评测工作,但是对于无法预测的潜在可能、可解释性、可靠性方面。为此,报告提出建立一个跨学科研究框架以有效促进人工智能与社会科学的结合,确保科技进步与人类的核心价值观保持一致,并探讨心理学与社会学在这一进程中的关键作用。通过跨学科合作,力求引领人工智能向着更加负责任、透明,且与人类利益相符的方向迈进。
谢幸研究员报告
腾讯研究院高级研究员曹建峰老师在报告《生成式人工智能的伦理挑战及其治理思考》中指出,大语言模型(LLM)为代表的生成式AI大模型,作为当前最先进的人工智能学习算法,正在快速创新和应用,有望给经济社会发展带来巨大效益,但也可能带来新的社会伦理挑战。因此,需要构建负责任的生成式人工智能生态,以价值对齐为核心的内在治理机制将发挥重要作用。目前,价值对齐的实现正在从人类监督(人类反馈)向AI监督(AI反馈)转变,同时训练数据干预、可解释AI、对抗测试等多种方式也有助于确保构建对齐的AI大模型。未来,以价值对齐为核心的人工智能内在治理机制需要在价值共识、有效监督能方面探索有效方式。
曹建峰研究员报告
论坛报告期间,三位专家回答了多位研究人员提出的问题,共同就大模型从科技到伦理展开了深入交流。本次论坛通过腾讯Wiz提供了网络直播,吸引了1400多名研究人员参加,对促进大模型时代的伦理治理与价值观对齐的研究与应用取得了良好效果。
(本次专题论坛直播回访见文末二维码)