报告1:多模态知识学习pdf

报告摘要:
随着多模态信息采集手段与交互方式的日益丰富,知识图谱与多模态信息的深度结合已成为必然趋势。然而,现有技术难以充分利用多模态信息中的丰富语义,同时面临着模态低质高噪、语义难以对齐等挑战,从而限制了多模态知识图谱的性能与应用精度。在本次报告中,我们将介绍研究组在多模态知识图谱相关的探索与尝试,包括实体对齐、知识补全、实体链接等方向的研究进展。

专家简介:
徐童,中国科学技术大学特任教授、博士生导师,中国中文信息学会青年工作委员会副秘书长。研究领域为社交媒体分析。发表中国计算机学会推荐A类期刊/会议论文60余篇。主持包括国家优秀青年科学基金在内的国家、省部级科研项目及校企合作项目10余项。获2项国际学术会议最佳论文奖或提名,指导学生获国内外8项学术竞赛冠军。2022年获安徽省计算机学会优秀青年科学家奖。

报告2:面向多模态文档的语义向量检索技术pdf

报告摘要:
随着大规模语言模型预训练技术的发展,诸如 ChatGPT 等具有代表性的大规模预训练语言模型在诸多自然语言处理任务中展现其良好的效果,通过对多模态外源知识进行检索对大模型的内源知识进行补充尤为重要。报告介绍当前文本语义检索和多模态语义检索中所存在的问题和挑战。报告首先从文本语义向量匹配出发,讨论当前稠密向量检索的基本框架,其次针对预训练语言模型预训练方法在文本语义匹配方面所面临的数据不足的问题进行讨论,最后通过以语言为中心的语义向量表征技术实现对多模态数据的高效检索工作。

专家简介:
刘正皓,东北大学副教授,硕士研究生导师,中文信息学会青工委委员。主要研究方向为信息检索、自动问答等工作,并于2021年获得清华大学工学博士学位。他在ICLR、ACL、EMNLP、NAACL、SIGIR、WebConf、IJCAI等国际顶级会议或期刊上发表20余篇论文。累计Google Scholar引用1300余次,与清华大学、微软联合维护Open Match开源平台。曾获CCL 2018最佳论文奖。

报告3:ChatGLM:预训练大模型实践与探索pdf

报告摘要:
报告将分享团队与合作伙伴在千亿模型 GLM-130B 训练和 ChatGLM 研发过程的思考和尝试。GLM-130B 是一个拥有1300亿参数的中英双语预训练基座模型,架构采用通用语言模型 GLM。斯坦福基础模型中心22年11月对全球30个大模型进行的评测报告显示 GLM-130B 在准确性和恶意性指标上与 GPT-3 175B (davinci) 接近或持平,鲁棒性在所有千亿基座模型中表现优异。自23年2月开始内测 ChatGLM-130B 千亿对话模型,3月开源 ChatGLM-6B 模型,截至6月份全球累计下载300万,连续两周Hugging Face趋势榜第一。

专家简介:
东昱晓,清华大学计算机系助理教授,知识工程实验室(KEG)成员,曾工作于脸书人工智能和微软总部研究院。研究方向为数据挖掘、图机器学习和预训练基础模型,相关成果应用于十亿级社交网络和知识图谱。入选IJCAI 22 Early Career Spotlight,获2017年ACM SIGKDD博士论文奖第三名和2022年ACM SIGKDD新星奖。