Yang Qingyi


2025

"本报告基于"第一届中国文学语言理解评测(争鸣)任务",对Qwen2.5-7B-Instruct模型进行了低秩适配(Low-Rank Adaptation, LoRA)微调实验。任务包括五项主任务:古代文学知识理解、文学阅读完形填空、文学命名实体识别、文学作品风格预测和文学风格转换;另有两项域外任务,涉及现代文学批评倾向与批评挖掘。在有限计算资源条件下,采用LoRA技术实现了高效参数更新,并结合少量样本提示和高质量指令设计,提升了模型在少样本条件下的鲁棒性与泛化能力。实验结果显示,该方法在五项主任务上取得了良好表现,并在域外任务中展现出显著的跨领域能力。其中,在批评挖掘任务中取得了0.847的准确率,体现了较强的抽象推理与知识迁移能力。基于本报告方法训练的模型在所有任务的平均指标为0.540,在参赛队伍中排名第三。"
"本研究聚焦于古诗文理解与情感推理任务,面向CCL-EVAL任务5评测中的关键词解释、关键句意译与情感分类三个子任务,以古典诗词为核心语料,通过高质量数据清洗、模型改写和情感推理优化等策略,提升模型对复杂语义和历史情感的建模能力,探索了语言风格适配与生成策略对模型性能的影响。实验表明,经过指令微调的Qwen2.5-14B-Instruct在多项指标上优于7B模型,尤其在情感推理任务中表现突出,准确率达0.714。此外,基于多次生成结果的加权投票机制有效提高了输出稳定性。然而,引入其他古诗文数据训练与模型风格改写未提升任务正确率,暴露出数据一致性与评测机制适配性方面的问题与挑战。本研究验证了大模型在古诗文理解中的能力及提升潜力,未来可从数据质量提升、评测优化与计算效率控制等方面进一步改进。"