中文信息学会第39期前沿技术讲习班(ATT)
日程概览

日期 时间 内容 讲者
8.24 08:20-08:30 讲习班开班仪式 王鑫(天津大学)、桂韬(复旦大学)
08:30-10:00 机器推理   【 pdf 段楠(微软亚洲研究院)
10:00-10:30 茶歇
10:30-12:00 知识图谱神经符号推理方法   【 pdf 张文(浙江大学)
12:00-14:00 午餐
14:00-15:30 多方对话结构建模   【 pdf 顾佳宸(中国科学技术大学)
15:30-16:00 茶歇
16:00-17:30 预训练语言模型的跨语言更新 彭敏龙(百度研究院)
8.25 08:30-10:00 医疗领域信息抽取与文本分析   【 pdf 汤步洲(哈尔滨工业大学(深圳))
10:00-10:30 茶歇
10:30-12:00 知识图谱的查询优化新技术   【 pdf 李友焕(湖南大学)
12:00-14:00 午餐
14:00-15:30 生成式模型在信息抽取中的应用   【 pdf 郭琦鹏(亚马逊云科技上海人工智能研究院)
15:30-16:00 茶歇
16:00-17:30 大语言模型的知识生命周期   【 pdf 林鸿宇(中国科学院软件研究所)

报告1: 机器推理 – 段楠pdf

报告摘要:
本报告将通过三部分介绍机器推理相关研究:(1)经典机器推理方法(包括符号推理、神经符号推理和检索增强推理等机制),以及这些方法与深度学习模型的融合;(2)基于大规模语言模型(Large Language Model, LLM)的推理方法,以及对其推理能力来源的猜想和分析;(3)通过介绍推理研究的经典方法和最新进展,展示不同技术路线的优缺点,并对未来机器推理研究方向进行展望。

专家简介:
段楠博士,微软亚洲研究院首席研究员,自然语言计算团队研究经理,中国科学技术大学兼职博导,天津大学兼职教授,主要从事自然语言处理、多模态基础模型、代码智能、机器推理等研究,多次担任NLP/AI学术会议程序主席和领域主席,发表学术论文100余篇,Google Scholar引用10000余次,持有专利20余项。

报告2: 知识图谱神经符号推理方法 – 张文pdf

报告摘要:
知识图谱推理方法广泛服务于知识图谱补全、查询问答等任务,符号推理方法具有可解释易编辑的特点,基于神经网络的推理方法具有易扩展高鲁棒的特点,近年来众多研究者对如何将两种方法结合,在不同的知识图谱推理任务中形成优势互补,进行了广泛研究。本报告将介绍知识图谱神经符号推理方法,包括融合神经推理的符号推理方法,以及符号推理增强的神经网络推理方法。

专家简介:
张文,浙江大学软件学院特聘研究员,研究方向包括知识图谱、知识表示与推理、图数据处理等。在包括NeurIPS/KDD/WWW/IJCAI/AAAI/ICDE/ACM MM/WSDM等在内的国际顶级会议上发表多篇论文,曾获国际知识图谱联合会议IJCKG最佳论文奖、最佳应用论文奖,浙江省科技进步二等奖等奖励。入选副省级市高层次人才引进计划、百度2023年度AI华人女性青年学者榜。

报告3: 多方对话结构建模 – 顾佳宸pdf

报告摘要:
用于多方对话 (Multi-Party Conversation,MPC) 的各种神经网络模型在接收人识别、说话人识别和回复预测等各种任务上取得了令人瞩目的进步。但是,现有的方法通常忽略了多方对话中固有的复杂结构,而这些结构提供了至关重要的对话者和对话语句语义信息,并会帮助理解整个对话过程。本报告将介绍近年来用于多方对话理解和生成的一系列预训练语言模型和基于图结构引导的微调方法。

专家简介:
顾佳宸于2022年在中国科学技术大学获得博士学位,曾是皇后大学的访问学生和微软的研究实习生。他的研究方向为构建智能对话系统,目前已在ACL、EMNLP、SIGIR、IJCAI、CIKM和IEEE/ACM TASLP发表了12篇第一作者论文。他的博士学位论文获中国中文信息学会优秀博士论文提名奖和中国科学院院长奖。

报告4: 预训练语言模型的跨语言更新 – 彭敏龙

报告摘要:
业内开源的预训练语言模型大多以英文语料为主要训练数据。为了将其迁移到中文语境,业界普遍采用中文语料二次预训练+中文指令微调的两步走策略。本次报告将探讨如何用中文无标注语料更新预训练语言模型,在不影响模型推理能力的情况下,更新模型的知识体系,以及如何更好地利用开源指令微调模型,使其更符合中文文化背景。报告将讨论我们基于GPT-2展开的英文到中文语境迁移的研究工作,以及基于Bloom-3b展开的保留中文语境特点的指令微调研究工作。

专家简介:
彭敏龙,百科研究院认知计算实验室研究员,博士毕业于复旦大学,研究方向包括文本解析、迁移学习、预训练语言模型知识更新等。近年来在ACL,EMNLP,COLING,IJCAI,AAAI等会议上发表多篇学术论文,并担任审稿人。

报告5: 医疗领域信息抽取与文本分析 – 汤步洲pdf

报告摘要:
本次报告将介绍医疗领域信息抽取的任务和技术发展路径,从不同表现形式的临床医疗实体识别,到不同应用场景的关系抽取,到面向临床辅助决策的决策树抽取。医疗领域信息抽取的发展反映出医疗人工智能的发展。另外,报告还会结合临床需求介绍医疗领域文本分析任务及相关方法。

专家简介:
汤步洲,哈尔滨工业大学(深圳),特聘研究员/副教授、博士生导师,鹏城实验室兼职研究员。OHDSI中国组核心成员,中国中文信息学会“医疗健康与生物信息处理”专业委员会副主任兼秘书长,中国计算机学会YOCSEF深圳(2022-2023)主席。主要研究方向为:自然语言处理、医学人工智能、多模态信息处理。近年来,在国际知名期刊JAMIA、JBI、AIIM、JBHI、TAC等和会议ACL、WWW、EMNLP、BIBM、MEDINFO、AMIA等上发表学术论文160多篇,其中SCI检索论文60多篇;Google scholar总引用4000+,H-index为33,入选斯坦福大学全球前2%顶尖科学家榜单(2022)。团队参加相关研究领域国际评测,15次获得第一名;担任重要国际期刊Journal of Biomedical Informatics等编委。先后承担国家、省市、企业合作项目三十多项。

报告6: 知识图谱的查询优化新技术 – 李友焕pdf

报告摘要:
此教程将探索知识图谱查询的各种优化技术,包括高效的查询算法、索引技术和查询分解等,并将分享基于实体对关系查询和多实体SPARQL查询的一些最新进展。整体内容包括对知识图谱基础的讲解、查询语言SPARQL的介绍以及查询优化的基本原理,然后是核心的查询优化技术和最新进展,包括针对实体对关系查询的低维点编码加速手段,以及SPARQL同态查询的非强同步查询过程。参与者将了解知识图谱的查询基础知识、优化技术等以及学术界目前最先进的知识图谱查询优化策略。

专家简介:
李友焕分别于2013年(计算机系本科)和2018年(计算机应用技术博士)毕业于北京大学,分别获理学学士和理学博士学位。2018~2020年作为腾讯与北大联合培养博士后,在腾讯研究和落地图技术,包括图数据库、图计算和图表示学习等。2021年3月加入湖南大学信息科学与工程学院,岳麓学者,副教授,博士生导师。目前的主要研究方向为数据库领域的大数据处理技术,存储和查询优化,图数据管理、图计算和图神经网络,在VLDB、ICDE、TKDE等顶级国际会议、期刊上发表多篇学术论文,主持国家自然科学基金一项,省级自然科学基金一项,发明专利两项。

报告7: 生成式模型在信息抽取中的应用 – 郭琦鹏pdf

报告摘要:
随着大语言模型的发展,大量传统的自然语言处理技术迎来了新变革,其中就包括用途广泛的信息抽取技术。本次报告聚焦于生成式模型在信息抽取中的应用,以及如何让生成式模型更好地理解和产生结构化数据。报告中会讨论一般生成式模型(例如T5)以及大语言模型在信息抽取相关任务中的最新进展。

专家简介:
郭琦鹏,亚马逊云科技上海人工智能研究院应用科学家,毕业于复旦大学,研究方向包括信息抽取、对话系统、文本生成,大模型等。近年来在AAAI,ACL,EMNLP,NAACL,AISTATS,COLING等会议上发表多篇学术论文,并担任审稿人和ARR senior area chair。在WebNLG 2020信息描述比赛中带队斩获第一名。

报告8: 大语言模型的知识生命周期 – 林鸿宇pdf

报告摘要:
知识在人工智能中扮演着至关重要的角色。最近,大规模预训练语言模型的的巨大成功引起了人们的广泛关注,这也引发了人们对语言模型如何获取、维护、更新和使用知识的重视。尽管有大量相关研究,但我们对语言模型内部知识在学习、调优和应用过程中如何循环流动仍缺乏统一的系统性认知,这可能阻碍我们进一步了解当前进展之间的联系或意识到现有的局限性。在本报告中,我们将大预言模型作为一个基于知识的系统进行了重新的审视,将大语言模型中的知识生命周期划分为五个关键阶段,并研究知识在构建、维护和使用时的循环流动方式。为此,我们系统地回顾了知识生命周期的每个阶段的现有研究,总结了主要挑战和当前的限制,并讨论了未来可能的方向。

专家简介:
林鸿宇,中国科学院软件研究所副研究员,研究方向为信息抽取与大语言模型,特别关注于大语言模型获取、存储以及使用不同形式知识的底层机制。近年来在ACL、EMNLP、AAAI、IJCAI等国际顶级会议上发表论文三十余篇,博士论文曾获中国中文信息学会优秀博士论文,并获得中国科学院院长奖特别奖。