“大模型+社会媒体”论坛由中国中文信息学会社会媒体处理专委会承办,共邀请4位专家学者做特邀报告并举办题目为“大模型对社会的影响”专题讨论,哈尔滨工业大学丁效教授主持论坛。
中国人民大学李彪教授的报告题目是“大模型对舆论生态的影响及应对”,报告指出,大模型的出现使得舆论生态发生了根本改变,舆论主体“非人化”、舆论本体“虚假化”、舆论客体“无理化”等现象日益突出,使得传统舆论传播路径与规律、应对都被颠覆,如何有效应对大模型带来舆论生态的后滞与虚假效应是当前舆论引导的前沿与难题。
北京理工大学张华平教授的报告题目是“大语言模型风险评估与ChatBIT实践”,大语言模型存在不可控,不可信与性价比过低风险,该报告主要介绍北理工团队研制的ChatBIT大语言模型,以可控,敏捷,可信为主要目标,在科技情报分析,数据挖掘分析做了有益尝试,并在内容人机检测,价值观风险评估方面做了部分探索性研究。
北京师范大学许小可教授的报告题目是“大模型生成内容的安全风险:挑战与应对”,报告摘要为,在大模型等人工智能技术的推动下,智能传播的生态迈向人机共生的新时代。在社会媒体中,基于大模型的的文本生成、数字人生成、图像生成、语音生成、视频生成等内容屡见不鲜,内容安全问题也随着技术的发展愈发凸显。一方面,涉及到人类主体对大模型的滥用、误用和恶意应用,生成内容中存在虚假新闻、虚假视频、换脸变声、不雅图片等一系列虚假信息泛滥问题;另一方面,AI大模型自身存在计算复杂性与尺度涌现特性等机理尚无法科学解释,生成内容中存在事实性错误、价值观错误、政治偏见、错误知识、主观欺骗等严重不可信的问题。综上所述,由通用人工智能技术生成内容的安全挑战亟需得到关注,该报告从检测技术、机理分析与立法保障等几方面系统梳理了应对措施。
天津大学赵蓓副教授的报告题目是“再造现实”:多模态大模型对信息传播环境的影响探究”,报告指出,伴随着人工智能的快速迭代和广泛应用,以ChatGPT、Sora、Gemini等为代表的大模型正在重塑我们的信息传播环境。多模态大模型不仅能够理解和生成单一模态的内容,更能在不同模态之间进行创新性融合,对整个人类传播生态将产生革命性影响。我们该如何应对这一“新的古登堡”时刻?该报告从多模态大模型的技术与叙事逻辑、对信息传播的潜在影响、未来发展趋势三个方面展开介绍,希望通过此报告能够厘清人-大模型-媒介环境的关系,为应对大模型带来的挑战提供参考。