必赢bwin官网入口-(首页)欢迎您!

必赢bwin官网入口成功举办第十六期研究生学术论坛

来源: 作者:编辑人:包嘉琪发稿时间:2022-06-06浏览次数:

为促进研究生之间学术交流,6月2日下午2:00,必赢bwin官网入口第十六期研究生论坛在崇真南楼A4030举办。本次论坛由学院研究生会学术部主办,2020级研究生马俊龙、黄晶晶、祁天尧、唐佳伟和李雪负责主讲,青年教师朱强博士参与本次论坛并负责指导。

mmexport1654491607417

马俊龙的报告题目为“Killing many birds with one stone: a transferable Extraction Question Answering algorithm for multiple-target domain adaptation”。报告针对抽取式问答任务,提出了一个新的迁移学习方法。使用相似度损失拉近源数据集与目标数据集的距离,再利用分类损失区分源数据集与目标数据集的私有知识,再利用梯度反转层删除私有知识,保留更多的公有知识。通过多个对比实验和消融实验证明,该方法取得了较好的结果。

黄晶晶的报告题目为“基于特征融合和对比学习的知识库开放域问答”。报告中显示命名实体识别是构建知识图谱的关键步骤,但实体识别所产生的误差会使得后续工作大打折扣。为了有效解决该问题,报告中使用数据增强与特征融合方法,先从现有的语料库中挖掘可扩展的潜在信息,再利用现有问题的实体、相关属性和挖掘出的潜在信息生成辅助问答对,借助这些辅助信息学习信息的表征。使得模型及其优化变得更加简单,且泛化能力更强。

祁天尧的报告题目为“多路径推理的文档级关系抽取”。报告提出了一种多路径推理模型。该模型使用图卷积神经网络和异构图规则下构建的图结构提取实体之间的局部信息,同时利用长短期记忆人工神经网络去处理构建的四条实体对的路径信息得到实体之间的推理信息,利用局部和推理信息得到实体之间复杂的依赖关系。与传统经典算法相比,该模型取得了更优的效果。

唐佳伟的报告题目为“Semi-Siamese Bi-encoder Neural Ranking Model UsingLightweight Fine-Tuning”。报告解读了两种提高基于BERT的双编码器性能的方法。一是用一个轻量级的微调来替换完整的微调步骤;二是开发半暹罗模型。首先使用预训练的BERT初始化问题和文档的编码器,并结合Semi-Siamese半孪生网络改造像素级微调和LoRA两种轻量级微调,在保证两个编码器共性的同时,建立它们间的差异性。通过对比在bi-encoder中的不同微调方法,证明了该混合微调方法在bi-encoder架构中的有效性。

李雪的报告题目为“Term Similarity-aware Extensive and Intensive Reading For Multiple Choice Question Answering”。目前针对多选阅读理解任务的方法存在噪声过多、证据句定位不够精确等问题,报告提出了一个TSEI方法,利用语义相似性进行候选句抽取,基于拉普拉斯算子和图卷积神经网络对BERT的编码输出做进一步的扩充,与现有基于BERT的微调方法相比,该方法取得了更好的效果。

朱强博士对每位同学的报告作了详细的点评与指导,本期研究生学术论坛开拓了研究生的学术视野、促进了研究生之间学术前沿探讨,取得了圆满成功。