- 许嘉;李正凯;吕品;王艳秋;苏申;王志刚;
专家发现(Expert Finding)的核心目标在于精准匹配用户提问与能够提供高质量解答的潜在专家,是问答社区、企业搜索和社交网络等多种应用的核心支撑任务。然而,当前专家发现领域的研究大多局限于单一核心知识视角,难以全面、多视角捕捉问题和专家的潜在特性,从而限制了专家发现的准确性。为解决这一难题,文章提出了一种基于大语言模型的多知识视角专家发现模型(LLMef)。该模型引入了多知识视角建模机制,有效融合核心知识、前置知识及后置知识三大视角的全面信息,实现对问题和专家特征的深度、细粒度表征。具体而言,LLMef模型基于开源大语言模型LLaMA-2-7B设计问题多知识视角编码器,实现问题的多知识视角表征;同时,设计了专家多知识视角聚合器,利用注意力机制聚合专家历史回答问题中的多知识视角信息,生成专家的多知识视角聚合表征。最后,通过对比实验、消融实验、参数敏感性实验,并辅以案例分析对LLMef模型进行验证。对比实验结果表明:与最好的基线模型TCQR相比,LLMef模型在6个公开数据集上的平均倒数排名(MRR)、前K精确度(P@K)和归一化折损累积增益(NDCG)分别平均提升了9.83%、13.58%、6.25%。消融实验结果表明问题多知识视角编码器和专家多知识视角聚合器的协同作用显著提升了问题建模与专家建模的精细度及准确性:与LLMef模型相比,关于问题多知识视角编码器的变体模型的MRR值平均降低了7.21%,关于专家多知识视角聚合器的变体模型的MRR值平均降低了10.43%。此外,参数敏感性实验结果明确了LLMef模型的最优参数配置,案例分析结果进一步揭示了LLMef模型优化专家发现效果的内在逻辑。综上可知,LLMef模型能够更精准地挖掘问题与专家间的潜在知识关联,可为问答社区、企业搜索等场景提供更可靠的专家发现结果。
2025年06期 v.57 57-70页 [查看摘要][在线阅读][下载 2475K] - 张天成;鞠振昊;孙相会;许嘉;于明鹤;刘恒宇;于思淼;于戈;
现阶段基于知识图谱的问答研究主要集中在英文领域,中文领域因起步较晚,且缺乏足够的问答语料数据,发展相对滞后。中文中大量实体存在别名,增加了问答的复杂性。为此,文章提出了一种基于双仿射模型与指针网络联合建模的知识图谱问答模型(Prompt-Biaf-JointPN,PBJ)。首先,在Prompt模块采用思维链方法将多跳问题拆分为多个单跳问题;然后,针对每个单跳问题,Biaf模块以双仿射模型为输出层进行实体提及识别,并在JointPN模块将实体消歧与关系匹配任务统一建模为选择形式的阅读理解任务,从而获得中间答案;接着,在Prompt模块通过循环迭代机制,将上一跳的答案作为下一跳问题的实体提及,直到最终生成完整答案。为验证模型性能,在3个数据集(NLPCC-ICCPOL、KgCLUE、NLPCC-MH)上,将PBJ模型与Pipeline1、Pipeline2、TransferNet等11个基线模型进行了对比实验。对比实验结果验证了PBJ模型在中文语境下处理复杂问答任务的准确率:在单跳任务上,将PBJ模型去掉Prompt模块后的BJ模型的Hits@1值比最优的基线模型Pipeline2 w/Biaf高2.15%;在多跳任务上,PBJ模型的Hits@1值比最优的基线模型ChineseBERT高1.26%。最后,为验证文章提出的Prompt、Biaf、JointPN模块的有效性,进行了消融实验。消融实验结果表明这3个模块对提升PBJ模型性能均有重要贡献:分别缺少Prompt、Biaf、JointPN模块的3个模型的Hits@1值,相较于PBJ模型分别下降了2.13%、2.84%、6.51%。综上可知,PBJ模型通过联合建模实体消歧与关系匹配,可有效缓解中文知识图谱问答中实体别名复杂、语料稀缺等瓶颈,为中文多跳问答提供了一种实用且可扩展的新思路。
2025年06期 v.57 71-81页 [查看摘要][在线阅读][下载 2646K] - 张涵;徐丽格;胡东浩;余宝贤;李百成;张翊;
印章文本识别对现代数字化文档处理与身份核验至关重要,然而,实际复杂场景下的印章文本检测与识别普遍存在精准度不足的问题。针对此,文章提出一种基于深度学习的印章文本检测与识别方案:(1)为提升模型在复杂场景中印章文本检测的特征提取能力,以可微分二值化网络(DBNet)为基础架构,面向文本特征融合,设计了带有残差结构多尺度特征融合注意力机制模块(RES-EMA),提出一种新的印章文本检测模型(RE-DBNet)。(2)基于SVTR模型,优化得到新的印章文本识别模型(CASVTR):在特征提取阶段,采用Conv卷积模块替换局部混合模块,构建Conv+GM编码器,以强化模型对字符特征的提取能力;在特征解码阶段,针对性设计基于Transformer的CTC解码器,以解决传统模型解码过程存在的多路径解码与特征不对齐问题,提升文本识别精度。最后,在ICDAR2023-ReST公开数据集上,将RE-DBNet模型与VitDet、TPSNet、TrOCR模型进行印章文本检测对比,将CASVTR模型与SAR、ABINet、SRN等模型进行印章文本识别对比;比较RES-EMA、EMA、SE、CBAM等注意力机制模块对文本检测模型的性能差异;开展编码器分别为Conv+GM、LM+GM以及解码器分别为CTC、CTC+LSTM、CTC+BiLSTM、CTC+Transformer的模型在印章文本识别中的性能对比实验。实验结果表明:(1)RE-DBNet模型的印章文本检测召回率达98.54%,较对比模型中召回率最优的VitDet模型提升了1.94%;CASVTR模型的印章文本识别准确率、平均归一化编辑距离分别为90.32%、0.987 4,较对比模型中性能最优的ParseQ模型分别提升了1.84%、0.018 7。(2)与增加EMA模块的DBNet-EMA模型相比,RE-DBNet模型的Precision、Recall、Hmean值分别提高了2.7%、0.03%、1.47%;基于Conv+GM编码器的SVTR-Conv模型的Accuracy值比SVTR模型提高了0.85%,基于Transfor-mer的CTC解码器的CASVTR模型的Accuracy、ANED值分别比SVTR-Conv-BiLSTM模型提高了2.43%、0.003 8。综上可知,文章提出的基于深度学习的文本检测与识别方案有效解决了复杂场景下印章文本检测精度低、识别阶段CTC解码多路径干扰及特征不对齐的问题,可为实际复杂业务场景的印章文本检测与识别提供可靠的技术支撑。
2025年06期 v.57 82-90页 [查看摘要][在线阅读][下载 1960K]