特邀报告

(以报告顺序为序)


讲者: 方滨兴院士(广州大学)

报告题目:乌克兰危机中的认知战

报告简介:

网络空间安全可以看成“三维九空间”,其中一维是“风险维”,关注的是网络空间安全风险的表现形态,其中一个空间称为“作用空间”,反映的是网络空间安全的作用层面,即作用在物理层、运行层、数据层与应用层。信息战属于网络空间安全领域的一部分,同样也适用于这种描述方式。信息战在“作用空间”中表现为设施战、网络战、情报战与认知战。在乌克兰危机中,信息战表现得淋漓尽致。本报告主要介绍乌克兰危机中认知战方面的内容,表现为认知控制、法理对抗、公共对抗、舆论对抗。


讲者:贾焰教授(鹏城实验室)

报告题目多维关联认知模型MDATA及其在网络攻击检测中的应用

报告简介:

本报告从人类认知的时空、及其关联特性出发,结合网络攻击检测的世界性难题,创新性地提出了多维关联认知模型MDATA理论,包括模型的组成、工作原理,及其相关的网络安全知识获取、表示管理,及其利用的方法和技术;并在此基础上给出了的网络攻击全面、准确、实时检测的实现技术,及其成功应用。


讲者: 刘群教授(华为)

报告题目:大规模语言模型研究进展与展望

报告简介:

大规模语言模型近几年来发展十分迅速,甚至给人眼花缭乱、目不暇接的感觉,近期ChatGPT的突破更是让人充满期待。本报告将对这一领域的研究进展进行初步的梳理,并讨论这些方法的优势和潜在的问题。同时也会介绍华为诺亚方舟实验室近期在这方面的研究,以及对未来工作的展望。


讲者:刘挺教授(哈尔滨工业大学)

报告题目:基于事理图谱的认知推理

报告简介:

历史事件是人类社会发展的重要记录,人们的社会活动往往是事件驱动的。事件之间在时间、空间上相继发生的演化规律和模式是一种十分有价值的知识。然而,现有的典型知识图谱主要是以实体及其属性和关系为研究核心,缺乏对事理逻辑这一重要人类知识的刻画。为了弥补这一不足,事理图谱应运而生,它能够揭示事件的演化规律和发展逻辑,刻画和记录人类行为活动。本次报告首先介绍事理图谱的概念,随后重点介绍基于事理知识的认知推理方法,在多个因果事件推理任务上事理知识都表现出了明显的优势,最后介绍事理图谱的潜在应用。


讲者:文继荣教授(中国人民大学)

报告题目: 基于预训练模型的信息检索

报告简介:

预训练大模型如何与信息检索结合是一个新的开放问题,我将介绍我们在该方向的初步探索,包括通过预训练模型得到语义更为丰富的表示并用于改善检索的各个环节;如何进行专门面向检索任务的预训练;以及以预训练模型为核心的新生成式检索范式。


主持: 刘知远(清华大学)

特邀嘉宾(以姓氏笔画为序): 张民(哈工深/苏大)、邱锡鹏(复旦大学)、袁进辉(一流科技)、黄民烈(清华大学)、董力(微软亚洲研究院)


刘知远,清华大学计算机系副教授、博士生导师。主要研究方向为自然语言处理、知识图谱和社会计算。2011年获得清华大学博士学位,已在ACL、EMNLP、IJCAI、AAAI等人工智能领域的著名国际期刊和会议发表相关论文100余篇,Google Scholar统计引用超过2.9万次。曾获中国中文信息学会汉王青年创新奖,入选北京智源研究院青年科学家、2020年Elsevier中国高被引学者、《麻省理工科技评论》中国区35岁以下科技创新35人榜单、中国科协青年人才托举工程。


张民,博士,哈尔滨工业大学(深圳)教授,特聘校长助理,计算与智能研究院院长。苏州大学计算机学院院长。国家杰出青年基金获得者,国家“百千万”人才,国家有突出贡献中青年专家,鹏城孔雀计划A类人才。长期从事自然语言处理、机器翻译和人工智能研究。发表论文200余篇(最佳论文4篇),专著2部,英文论著(论文集)16本,部级科技进步奖4项。IEEE/ACM T-ASLP、Computational Linguistics (CL)、Journal of Natural Language Engineering (NLE)、SCIENCE CHINA Information Sciences、Journal of Computer Science and Technology (JCST)、Machine Intelligence Research (MIR)、《中国科学:信息科学》、《软件学报》和《自动化学报》编委。享受国务院政府特殊津贴。


邱锡鹏,复旦大学计算机学院教授,主要研究方向为自然语言处理基础技术和基础模型,发表CCF A/B类论文80余篇,被引用1万余次,获得ACL 2017杰出论文奖(CCF A类)、CCL 2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选ACL/EMNLP等会议的最有影响力论文,主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用,发布了CPT、BART-Chinese、ElasticBERT等中文预训练模型,在中文模型中下载量排名前列。


袁进辉,OneFlow创始人,致力于打造全球最快深度学习框架及分布式深度学习平台的事实工业标准。清华大学计算机系博士、博士后,师从张钹院士。清华大学优秀博士学位论文奖获得者 , 曾任微软亚洲研究院主管研究员,专注于大规模机器学习平台及基于异构集群的深度学习,发明了当时世界上最快的主题模型训练算法和系统 LightLDA。兼任之江实验室天枢开源开放平台架构师,北京智源人工智能研究院大模型技术委员会委员。


黄民烈博士,清华大学长聘副教授,国家杰青获得者,聆心智能创始人,自然语言生成与智能写作专委会副主任、CCF学术工委秘书长。他的研究领域为大规模语言模型、对话系统、语言生成,著有《现代自然语言生成》一书。曾获得中国人工智能学会吴文俊人工智能科技进步奖一等奖(第一完成人),中文信息学会汉王青年创新奖等。在国际顶级会议和期刊发表论文150多篇,谷歌学术引用13000多次,h-index 57;多次获得国际主流会议的最佳论文或提名(IJCAI、ACL、SIGDIAL等)。


董力,微软亚洲研究院自然语言处理组研究员,博士毕业于爱丁堡大学。现主要从事大规模预训练的相关研究工作。曾获得AAAI-2021 Best Paper Runner Up、2019 AAAI/ACM SIGAI Doctoral Dissertation Award Runner Up、ACL-2018 Best Paper Honourable Mention,并多次担任ACL、EMNLP、NAACL、NeurIPS等会议领域主席。